একটি বার্নোলি অনুপাত p (H₀: p = p₀)-এর জন্য সঠিক পরীক্ষায় (exact test), p-ভ্যালু গণনা করতে কোন ডিস্ট্রিবিউশন ব্যবহার করা হয়?
Explanation: The exact test for a single Bernoulli proportion is based on the Binomial distribution. The number of successes in ‘n’ trials follows a Binomial(n, p) distribution. The p-value is calculated directly from this distribution’s probability mass function (PMF).
ব্যাখ্যা: একটি বার্নোলি অনুপাতের জন্য সঠিক পরীক্ষাটি বাইনোমিয়াল ডিস্ট্রিবিউশনের উপর ভিত্তি করে করা হয়। ‘n’ সংখ্যক ট্রায়ালে সাফল্যের সংখ্যা Binomial(n, p) ডিস্ট্রিবিউশন অনুসরণ করে। এই ডিস্ট্রিবিউশনের প্রোবাবিলিটি মাস ফাংশন (PMF) থেকে সরাসরি p-ভ্যালু গণনা করা হয়।
ফিশারের সঠিক পরীক্ষা (Fisher’s exact test) দুটি ক্যাটেগরিক্যাল ভেরিয়েবলের মধ্যে অ্যাসোসিয়েশন পরীক্ষা করতে ব্যবহৃত হয়, সাধারণত একটি…
Explanation: Fisher’s exact test is an exact test for independence in a contingency table. It is most commonly used for 2×2 tables, especially when sample sizes are small and the assumptions for the Chi-square test are not met.
ব্যাখ্যা: ফিশারের সঠিক পরীক্ষা কন্টিনজেন্সি টেবিলে স্বাধীনতার একটি সঠিক পরীক্ষা। এটি সাধারণত 2×2 টেবিলের জন্য ব্যবহৃত হয়, বিশেষ করে যখন নমুনার আকার ছোট হয় এবং Chi-square পরীক্ষার অনুমানগুলি পূরণ হয় না।
একটি একক পয়সন গড় λ (H₀: λ = λ₀) সম্পর্কিত একটি সঠিক পরীক্ষার জন্য, টেস্ট স্ট্যাটিস্টিক হলো পর্যবেক্ষিত গণনা X। X কোন ডিস্ট্রিবিউশন অনুসরণ করে?
Explanation: By definition, a random variable representing counts over a fixed interval of time or space, under the Poisson assumptions, follows a Poisson distribution. The exact test uses this distribution directly to calculate probabilities.
ব্যাখ্যা: সংজ্ঞা অনুসারে, একটি নির্দিষ্ট সময় বা স্থানের ব্যবধানে গণনাকে প্রতিনিধিত্বকারী একটি র্যান্ডম ভেরিয়েবল, পয়সন অনুমানগুলির অধীনে, একটি পয়সন ডিস্ট্রিবিউশন অনুসরণ করে। সঠিক পরীক্ষাটি সম্ভাবনা গণনা করার জন্য সরাসরি এই ডিস্ট্রিবিউশন ব্যবহার করে।
একটি নরমাল ডিস্ট্রিবিউশন থেকে আসা পপুলেশনের অজানা ভ্যারিয়েন্স (σ²) সহ একটি একক গড় (µ)-এর জন্য একটি সঠিক কনফিডেন্স ইন্টারভ্যাল তৈরি করতে কোন ডিস্ট্রিবিউশন ব্যবহার করা হয়?
Explanation: When the population variance is unknown and estimated from the sample, the standardized sample mean (t-statistic) follows a Student’s t-distribution, not a standard normal distribution. This is used for tests and confidence intervals.
ব্যাখ্যা: যখন পপুলেশন ভ্যারিয়েন্স অজানা থাকে এবং নমুনা থেকে অনুমান করা হয়, তখন স্ট্যান্ডার্ডাইজড স্যাম্পল গড় (t-স্ট্যাটিস্টিক) একটি স্টুডেন্টস t-ডিস্ট্রিবিউশন অনুসরণ করে, স্ট্যান্ডার্ড নরমাল ডিস্ট্রিবিউশন নয়। এটি পরীক্ষা এবং কনফিডেন্স ইন্টারভ্যালের জন্য ব্যবহৃত হয়।
F-টেস্ট কীসের সমতা পরীক্ষা করতে ব্যবহৃত হয়?
Explanation: The F-test is fundamentally a test for the ratio of two variances. It is used to test the null hypothesis that two normal populations have the same variance (H₀: σ₁² = σ₂²). It is also the core test in ANOVA.
ব্যাখ্যা: F-টেস্ট মূলত দুটি ভ্যারিয়েন্সের অনুপাতের একটি পরীক্ষা। এটি দুটি নরমাল পপুলেশনের ভ্যারিয়েন্স সমান (H₀: σ₁² = σ₂²) কিনা তা পরীক্ষা করার জন্য ব্যবহৃত হয়। এটি ANOVA-এর মূল পরীক্ষাও বটে।
একটি সরল রৈখিক রিগ্রেশন মডেলে (Y = β₀ + β₁X + ε), রিগ্রেশন সহগ β₁ এর তাৎপর্য পরীক্ষা করার জন্য নাল হাইপোথিসিস কী?
Explanation: Testing the significance of the regression coefficient β₁ means testing if there is a linear relationship between X and Y. If β₁ = 0, it implies that X has no linear effect on Y. Therefore, the null hypothesis is H₀: β₁ = 0.
ব্যাখ্যা: রিগ্রেশন সহগ β₁-এর তাৎপর্য পরীক্ষা করার অর্থ হলো X এবং Y-এর মধ্যে কোনো রৈখিক সম্পর্ক আছে কিনা তা পরীক্ষা করা। যদি β₁ = 0 হয়, তবে এর অর্থ হলো Y-এর উপর X-এর কোনো রৈখিক প্রভাব নেই। সুতরাং, নাল হাইপোথিসিস হলো H₀: β₁ = 0।
বিশ্লেষণ অব ভ্যারিয়েন্স (ANOVA) একটি পরিসংখ্যানিক পদ্ধতি যা কিসের মধ্যে একটি তাৎপর্যপূর্ণ পার্থক্য পরীক্ষা করতে ব্যবহৃত হয়?
Explanation: ANOVA is an extension of the t-test. While a t-test compares the means of two groups, ANOVA is used to simultaneously compare the means of three or more groups to determine if at least one group mean is different from the others.
ব্যাখ্যা: ANOVA হলো t-টেস্টের একটি সম্প্রসারণ। যেখানে একটি t-টেস্ট দুটি গ্রুপের গড় তুলনা করে, সেখানে ANOVA একই সাথে তিন বা ততোধিক গ্রুপের গড় তুলনা করতে ব্যবহৃত হয়, যাতে নির্ধারণ করা যায় যে অন্তত একটি গ্রুপের গড় অন্যদের থেকে ভিন্ন।
একমুখী ANOVA-তে, মোট বর্গ সমষ্টি (SST) কী কী অংশে বিভক্ত হয়?
Explanation: The fundamental principle of one-way ANOVA is to partition the total variability in the data (SST) into variability between the group means (SSB) and variability within the groups (SSW). So, SST = SSB + SSW.
ব্যাখ্যা: একমুখী ANOVA-এর মূল নীতি হলো ডেটার মোট পরিবর্তনশীলতা (SST)-কে গ্রুপগুলির গড়ের মধ্যে পরিবর্তনশীলতা (SSB) এবং গ্রুপগুলির অভ্যন্তরে পরিবর্তনশীলতা (SSW)-তে বিভক্ত করা। সুতরাং, SST = SSB + SSW।
অনুপাত (p) প্রকৃতির ডেটার জন্য কোন ভ্যারিয়েন্স স্থিতিশীলকারী রূপান্তর (variance stabilizing transformation) উপযুক্ত?
Explanation: For a binomial proportion p, the variance is p(1-p)/n, which depends on the mean p. The arcsine square root transformation, y = sin⁻¹(√p), stabilizes the variance, making it approximately constant (1/4n) regardless of the value of p.
ব্যাখ্যা: একটি বাইনোমিয়াল অনুপাত p-এর জন্য, ভ্যারিয়েন্স হলো p(1-p)/n, যা গড় p-এর উপর নির্ভর করে। আর্কসাইন স্কোয়ার রুট রূপান্তর, y = sin⁻¹(√p), ভ্যারিয়েন্সকে স্থিতিশীল করে, এটিকে p-এর মান নির্বিশেষে প্রায় ধ্রুবক (1/4n) করে তোলে।
ফিশারের z-রূপান্তর (z-transformation) কীসের জন্য ব্যবহৃত হয়?
Explanation: The sampling distribution of Pearson’s correlation coefficient (r) is not normal, especially when the population correlation (ρ) is not zero. Fisher’s z-transformation, z = 0.5 * log((1+r)/(1-r)), transforms ‘r’ into a variable that is approximately normally distributed with a variance that is independent of ρ. This makes hypothesis testing and CI construction much easier.
ব্যাখ্যা: পিয়ারসনের কোরিলেশন কোএফিসিয়েন্ট (r)-এর স্যাম্পলিং ডিস্ট্রিবিউশন নরমাল নয়, বিশেষ করে যখন পপুলেশন কোরিলেশন (ρ) শূন্য নয়। ফিশারের z-রূপান্তর, z = 0.5 * log((1+r)/(1-r)), ‘r’-কে এমন একটি ভেরিয়েবলে রূপান্তরিত করে যা প্রায় নরমালি ডিস্ট্রিবিউটেড এবং যার ভ্যারিয়েন্স ρ-এর উপর নির্ভরশীল নয়। এটি হাইপোথিসিস পরীক্ষা এবং CI নির্মাণকে অনেক সহজ করে তোলে।
পিয়ারসনের কাই-স্কোয়ার (χ²) গুডনেস-অফ-ফিট পরীক্ষা কী নির্ধারণ করতে ব্যবহৃত হয়?
Explanation: The goodness-of-fit test compares the observed frequencies in different categories to the expected frequencies that would occur if the data followed a hypothesized distribution (e.g., Uniform, Binomial, Normal). A significant result suggests the data does not fit the distribution.
ব্যাখ্যা: গুডনেস-অফ-ফিট পরীক্ষা বিভিন্ন ক্যাটেগরিতে পর্যবেক্ষিত ফ্রিকোয়েন্সিকে প্রত্যাশিত ফ্রিকোয়েন্সির সাথে তুলনা করে, যা ডেটা একটি অনুমিত ডিস্ট্রিবিউশন (যেমন, ইউনিফর্ম, বাইনোমিয়াল, নরমাল) অনুসরণ করলে ঘটত। একটি তাৎপর্যপূর্ণ ফলাফল নির্দেশ করে যে ডেটা সেই ডিস্ট্রিবিউশনের সাথে ফিট করে না।
ইয়েটসের কন্টিনিউটি কারেকশন (Yates’ continuity correction) কাই-স্কোয়ার পরীক্ষায় কখন ব্যবহৃত হয়?
Explanation: The Chi-square distribution is continuous, but the test statistic is calculated from discrete counts. Yates’ correction adjusts the formula for the 2×2 table to better approximate the continuous Chi-square distribution, reducing the chance of a Type I error. It is recommended when any expected cell count is less than 10 (or 5).
ব্যাখ্যা: কাই-স্কোয়ার ডিস্ট্রিবিউশনটি কন্টিনিউয়াস, কিন্তু টেস্ট স্ট্যাটিস্টিকটি ডিসক্রিট গণনা থেকে নির্ণয় করা হয়। ইয়েটসের কারেকশন 2×2 টেবিলের সূত্রটি সামঞ্জস্য করে যাতে এটি কন্টিনিউয়াস কাই-স্কোয়ার ডিস্ট্রিবিউশনের আরও ভালো অনুমান করতে পারে, যা টাইপ I ত্রুটির সম্ভাবনা কমায়। যখন কোনো প্রত্যাশিত সেল গণনা ১০ (বা ৫)-এর কম হয় তখন এটি ব্যবহার করার সুপারিশ করা হয়।
নিচের কোনটি অবস্থানের (location) জন্য একটি নন-প্যারামেট্রিক পরীক্ষা, যা এক-নমুনা t-টেস্টের সমতুল্য?
Explanation: The Wilcoxon signed-rank test is a non-parametric alternative to the one-sample t-test or the paired t-test. It tests whether the median of a population is equal to a specified value, without assuming the data is normally distributed.
ব্যাখ্যা: উইলকক্সন সাইনড-র্যাঙ্ক টেস্ট হলো এক-নমুনা t-টেস্ট বা পেয়ারড t-টেস্টের একটি নন-প্যারামেট্রিক বিকল্প। এটি ডেটা নরমালি ডিস্ট্রিবিউটেড কিনা তা অনুমান না করেই একটি পপুলেশনের মিডিয়ান একটি নির্দিষ্ট মানের সমান কিনা তা পরীক্ষা করে।
মান-হুইটনি U টেস্ট কোন প্যারামেট্রিক পরীক্ষার একটি নন-প্যারামেট্রিক বিকল্প?
Explanation: The Mann-Whitney U test (also known as the Wilcoxon rank-sum test) is used to compare whether two independent samples were selected from populations having the same distribution. It is the non-parametric counterpart to the independent two-sample t-test.
ব্যাখ্যা: মান-হুইটনি U টেস্ট (উইলকক্সন র্যাঙ্ক-সাম টেস্ট নামেও পরিচিত) দুটি স্বাধীন নমুনা একই ডিস্ট্রিবিউশনযুক্ত পপুলেশন থেকে নির্বাচিত হয়েছে কিনা তা তুলনা করতে ব্যবহৃত হয়। এটি স্বাধীন দুই-নমুনা t-টেস্টের নন-প্যারামেট্রিক সমতুল্য।
র্যান্ডমনেসের জন্য রান টেস্ট (Run test) কোন হাইপোথিসিস পরীক্ষা করতে ব্যবহৃত হয়?
Explanation: The Run test examines a sequence of binary outcomes (or data dichotomized around a central point like the median) for patterns. It checks whether the arrangement of the elements in the sequence is random by counting the number of “runs” (unbroken sequences of the same symbol).
ব্যাখ্যা: রান টেস্ট একটি বাইনারি ফলাফলের ক্রম (বা মিডিয়ানের মতো একটি কেন্দ্রীয় বিন্দুর চারপাশে দ্বিখণ্ডিত ডেটা) প্যাটার্নের জন্য পরীক্ষা করে। এটি “রান” (একই প্রতীকের অবিচ্ছিন্ন ক্রম) গণনা করে ক্রমের উপাদানগুলির বিন্যাস র্যান্ডম কিনা তা পরীক্ষা করে।
একটি দ্বিমুখী ANOVA-তে, ইন্টারঅ্যাকশন এফেক্ট (interaction effect) কী পরীক্ষা করে?
Explanation: A significant interaction effect in a two-way ANOVA indicates that the relationship between one independent variable (factor) and the dependent variable is different at different levels of the other independent variable. The effect of one factor is not consistent across the levels of the other.
ব্যাখ্যা: একটি দ্বিমুখী ANOVA-তে একটি তাৎপর্যপূর্ণ ইন্টারঅ্যাকশন এফেক্ট নির্দেশ করে যে একটি স্বাধীন ভেরিয়েবল (ফ্যাক্টর) এবং নির্ভরশীল ভেরিয়েবলের মধ্যে সম্পর্ক অন্য স্বাধীন ভেরিয়েবলের বিভিন্ন স্তরে ভিন্ন। একটি ফ্যাক্টরের প্রভাব অন্যটির স্তর জুড়ে সামঞ্জস্যপূর্ণ নয়।
একটি একক অনুপাতের জন্য লার্জ স্যাম্পল Z-টেস্ট কখন উপযুক্ত?
Explanation: For the normal approximation to the binomial distribution to be valid (which is the basis for the large sample Z-test for proportions), the sample size ‘n’ must be large enough. The common rule of thumb is that the expected number of successes (n*p₀) and the expected number of failures (n*(1-p₀)) should both be at least 5 (or sometimes 10).
ব্যাখ্যা: বাইনোমিয়াল ডিস্ট্রিবিউশনের নরমাল অ্যাপ্রোক্সিমেশন বৈধ হওয়ার জন্য (যা অনুপাতের জন্য লার্জ স্যাম্পল Z-টেস্টের ভিত্তি), নমুনার আকার ‘n’ যথেষ্ট বড় হতে হবে। সাধারণ নিয়ম হলো যে প্রত্যাশিত সাফল্যের সংখ্যা (n*p₀) এবং প্রত্যাশিত ব্যর্থতার সংখ্যা (n*(1-p₀)) উভয়ই কমপক্ষে ৫ (বা কখনও কখনও ১০) হওয়া উচিত।
স্কোয়ার রুট রূপান্তর (√x) কিসের ভ্যারিয়েন্স স্থিতিশীল করার জন্য সবচেয়ে উপযুক্ত?
Explanation: For a Poisson distribution, the variance is equal to the mean (Var(X) = E(X) = λ). This means the variance depends on the mean. The square root transformation, Y = √X, results in a variable whose variance is approximately constant (around 0.25), independent of the mean λ.
ব্যাখ্যা: একটি পয়সন ডিস্ট্রিবিউশনের জন্য, ভ্যারিয়েন্স গড়ের সমান (Var(X) = E(X) = λ)। এর মানে হলো ভ্যারিয়েন্স গড়ের উপর নির্ভর করে। স্কোয়ার রুট রূপান্তর, Y = √X, এমন একটি ভেরিয়েবল তৈরি করে যার ভ্যারিয়েন্স প্রায় ধ্রুবক (প্রায় 0.25), যা গড় λ-এর উপর নির্ভরশীল নয়।
কাই-স্কোয়ার টেস্ট অব হোমোজিনিটি (homogeneity) কী নির্ধারণ করতে ব্যবহৃত হয়?
Explanation: The test of homogeneity checks if two or more populations (or groups) are “homogeneous” with respect to the distribution of a single categorical variable. It compares the proportions of a characteristic across different populations. For example, testing if the proportion of voters for different parties is the same across three different cities.
ব্যাখ্যা: টেস্ট অব হোমোজিনিটি পরীক্ষা করে যে দুই বা ততোধিক পপুলেশন (বা গ্রুপ) একটি একক ক্যাটেগরিক্যাল ভেরিয়েবলের ডিস্ট্রিবিউশনের ক্ষেত্রে “সমজাতীয়” কিনা। এটি বিভিন্ন পপুলেশন জুড়ে একটি বৈশিষ্ট্যের অনুপাত তুলনা করে। উদাহরণস্বরূপ, তিনটি ভিন্ন শহরে বিভিন্ন দলের জন্য ভোটারদের অনুপাত একই কিনা তা পরীক্ষা করা।
“টলারেন্স ইন্টারভ্যাল” কী?
Explanation: A tolerance interval is different from a confidence interval. A confidence interval is about a population parameter (like the mean). A tolerance interval is about the individual values in the population. For example, a 95% confidence, 99% tolerance interval means we are 95% confident that this interval captures at least 99% of all values in the population.
ব্যাখ্যা: একটি টলারেন্স ইন্টারভ্যাল একটি কনফিডেন্স ইন্টারভ্যাল থেকে ভিন্ন। একটি কনফিডেন্স ইন্টারভ্যাল একটি পপুলেশন প্যারামিটার (যেমন গড়) সম্পর্কে। একটি টলারেন্স ইন্টারভ্যাল পপুলেশনের স্বতন্ত্র মান সম্পর্কে। উদাহরণস্বরূপ, একটি 95% কনফিডেন্স, 99% টলারেন্স ইন্টারভ্যাল মানে আমরা 95% আত্মবিশ্বাসী যে এই ইন্টারভ্যালটি পপুলেশনের সমস্ত মানের কমপক্ষে 99% ধারণ করে।
একটি বাইভেরিয়েট নরমাল পপুলেশন থেকে ছোট নমুনার জন্য সরল কোরিলেশন কোএফিসিয়েন্টের ক্ষেত্রে H₀: ρ = 0 পরীক্ষা করার জন্য কোন টেস্ট স্ট্যাটিস্টিকটি সাধারণত ব্যবহৃত হয়?
Explanation: When testing the specific null hypothesis that the population correlation ρ is zero, the statistic t = r * sqrt((n-2)/(1-r²)) follows a t-distribution with n-2 degrees of freedom. Fisher’s z-transformation is used for the more general case H₀: ρ = ρ₀ where ρ₀ is not zero.
ব্যাখ্যা: যখন পপুলেশন কোরিলেশন ρ শূন্য এই নির্দিষ্ট নাল হাইপোথিসিসটি পরীক্ষা করা হয়, তখন t = r * sqrt((n-2)/(1-r²)) স্ট্যাটিস্টিকটি n-2 ডিগ্রি অব ফ্রিডম সহ একটি t-ডিস্ট্রিবিউশন অনুসরণ করে। ফিশারের z-রূপান্তরটি আরও সাধারণ ক্ষেত্রে H₀: ρ = ρ₀ (যেখানে ρ₀ শূন্য নয়) এর জন্য ব্যবহৃত হয়।
নিচের কোনটি একমুখী ANOVA-এর একটি মূল অনুমান?
Explanation: The three key assumptions for one-way ANOVA are: (1) Independence of observations, (2) Normality of the data within each group, and (3) Homogeneity of variances (equal variances across groups). Unequal sample sizes are permissible, though balanced designs are often preferred.
ব্যাখ্যা: একমুখী ANOVA-এর তিনটি মূল অনুমান হলো: (১) পর্যবেক্ষণের স্বাধীনতা, (২) প্রতিটি গ্রুপের ভেতরের ডেটার নরমালিটি, এবং (৩) ভ্যারিয়েন্সের সমজাতীয়তা (গ্রুপ জুড়ে সমান ভ্যারিয়েন্স)। অসম নমুনার আকার অনুমোদিত, যদিও সুষম ডিজাইন প্রায়শই পছন্দ করা হয়।
একটি রিগ্রেশন সমস্যার জন্য ANOVA-এর প্রেক্ষাপটে, F-টেস্ট কী মূল্যায়ন করতে ব্যবহৃত হয়?
Explanation: The F-test in a regression’s ANOVA table tests the null hypothesis that all regression slope coefficients are simultaneously equal to zero (H₀: β₁ = β₂ = … = βk = 0). A significant F-test indicates that at least one predictor variable has a significant relationship with the response variable, meaning the model as a whole is useful.
ব্যাখ্যা: একটি রিগ্রেশনের ANOVA টেবিলে F-টেস্টটি এই নাল হাইপোথিসিস পরীক্ষা করে যে সমস্ত রিগ্রেশন স্লোপ কোএফিসিয়েন্ট একই সাথে শূন্যের সমান (H₀: β₁ = β₂ = … = βk = 0)। একটি তাৎপর্যপূর্ণ F-টেস্ট নির্দেশ করে যে অন্তত একটি প্রেডিক্টর ভেরিয়েবলের রেসপন্স ভেরিয়েবলের সাথে একটি তাৎপর্যপূর্ণ সম্পর্ক রয়েছে, যার অর্থ মডেলটি সামগ্রিকভাবে কার্যকর।
ANOVA করার আগে ভ্যারিয়েন্সের সমজাতীয়তার অনুমানটি পরীক্ষা করার জন্য সাধারণত কোন পরীক্ষাটি ব্যবহৃত হয়?
Explanation: Bartlett’s test and Levene’s test are both designed to test the null hypothesis that the variances are equal across different groups. Bartlett’s test is sensitive to departures from normality, while Levene’s test is more robust. Shapiro-Wilk is for normality, and Durbin-Watson is for autocorrelation.
ব্যাখ্যা: বার্টলেটের টেস্ট এবং লেভিনের টেস্ট উভয়ই এই নাল হাইপোথিসিস পরীক্ষা করার জন্য ডিজাইন করা হয়েছে যে বিভিন্ন গ্রুপ জুড়ে ভ্যারিয়েন্সগুলি সমান। বার্টলেটের টেস্ট নরমালিটি থেকে বিচ্যুতির প্রতি সংবেদনশীল, যেখানে লেভিনের টেস্ট আরও শক্তিশালী। শাপিরো-উইল্ক নরমালিটির জন্য এবং ডারবিন-ওয়াটসন অটোকোরিলেশনের জন্য।
দুটি অনুপাতের (p₁ – p₂) মধ্যে পার্থক্যের জন্য একটি লার্জ স্যাম্পল টেস্ট তার টেস্ট স্ট্যাটিস্টিকের জন্য কোন ডিস্ট্রিবিউশন ব্যবহার করে?
Explanation: Under the null hypothesis H₀: p₁ = p₂, and assuming large samples, the sampling distribution of the difference in sample proportions (p̂₁ – p̂₂) is approximately normal. Therefore, a standardized Z-statistic is constructed and compared to the standard normal distribution.
ব্যাখ্যা: নাল হাইপোথিসিস H₀: p₁ = p₂-এর অধীনে এবং লার্জ স্যাম্পল ধরে নিলে, নমুনা অনুপাতের পার্থক্যের (p̂₁ – p̂₂) স্যাম্পলিং ডিস্ট্রিবিউশনটি প্রায় নরমাল হয়। অতএব, একটি স্ট্যান্ডার্ডাইজড Z-স্ট্যাটিস্টিক তৈরি করা হয় এবং স্ট্যান্ডার্ড নরমাল ডিস্ট্রিবিউশনের সাথে তুলনা করা হয়।
loge(x) রূপান্তরটি প্রায়শই ব্যবহৃত হয় যখন…
Explanation: The logarithmic transformation is effective at stabilizing variance when the standard deviation of the data tends to increase in proportion to the mean. This is common in biological and economic data. It also helps to linearize relationships and normalize skewed distributions.
ব্যাখ্যা: লগারিদমিক রূপান্তর ভ্যারিয়েন্স স্থিতিশীল করতে কার্যকর যখন ডেটার স্ট্যান্ডার্ড ডেভিয়েশন গড়ের সমানুপাতে বাড়তে থাকে। এটি জৈবিক এবং অর্থনৈতিক ডেটাতে সাধারণ। এটি সম্পর্ককে রৈখিক করতে এবং স্কিউড ডিস্ট্রিবিউশনকে নরমাল করতেও সাহায্য করে।
একটি r x c কন্টিনজেন্সি টেবিলে স্বাধীনতার কাই-স্কোয়ার পরীক্ষার জন্য ডিগ্রি অব ফ্রিডম কত?
Explanation: The degrees of freedom for a Chi-square test of independence (or homogeneity) is calculated as the number of rows minus one, multiplied by the number of columns minus one. This reflects the number of cell counts that are free to vary once the row and column totals are fixed.
ব্যাখ্যা: স্বাধীনতার (বা সমজাতীয়তার) কাই-স্কোয়ার পরীক্ষার জন্য ডিগ্রি অব ফ্রিডম গণনা করা হয় (সারি সংখ্যা – ১) * (কলাম সংখ্যা – ১) হিসাবে। এটি রো এবং কলামের মোট সংখ্যা স্থির হয়ে যাওয়ার পরে কতগুলি সেল গণনা স্বাধীনভাবে পরিবর্তিত হতে পারে তা প্রতিফলিত করে।
ক্রুসকাল-ওয়ালিস টেস্ট কিসের একটি নন-প্যারামেট্রিক বিকল্প?
Explanation: The Kruskal-Wallis H test is a rank-based non-parametric test used to determine if there are statistically significant differences between two or more groups of an independent variable on a continuous or ordinal dependent variable. It is the non-parametric equivalent of the one-way ANOVA.
ব্যাখ্যা: ক্রুসকাল-ওয়ালিস H টেস্ট একটি র্যাঙ্ক-ভিত্তিক নন-প্যারামেট্রিক পরীক্ষা যা একটি কন্টিনিউয়াস বা অর্ডিনাল নির্ভরশীল ভেরিয়েবলের উপর একটি স্বাধীন ভেরিয়েবলের দুই বা ততোধিক গ্রুপের মধ্যে পরিসংখ্যানগতভাবে তাৎপর্যপূর্ণ পার্থক্য আছে কিনা তা নির্ধারণ করতে ব্যবহৃত হয়। এটি একমুখী ANOVA-এর নন-প্যারামেট্রিক সমতুল্য।
নন-প্যারামেট্রিক টেস্টগুলি আর কী নামে পরিচিত?
Explanation: Non-parametric tests are often called distribution-free tests because they make fewer assumptions about the underlying distribution of the data. They do not assume the data comes from a particular distribution (like the normal distribution), which is a requirement for most parametric tests.
ব্যাখ্যা: নন-প্যারামেট্রিক পরীক্ষাগুলিকে প্রায়শই ডিস্ট্রিবিউশন-মুক্ত পরীক্ষা বলা হয় কারণ তারা ডেটার অন্তর্নিহিত ডিস্ট্রিবিউশন সম্পর্কে কম অনুমান করে। তারা ধরে নেয় না যে ডেটা একটি নির্দিষ্ট ডিস্ট্রিবিউশন (যেমন নরমাল ডিস্ট্রিবিউশন) থেকে আসে, যা বেশিরভাগ প্যারামেট্রিক পরীক্ষার জন্য একটি প্রয়োজনীয়তা।
মিডিয়ানের জন্য একটি নন-প্যারামেট্রিক কনফিডেন্স ইন্টারভ্যাল নমুনার সাজানো মান এবং কোন ডিস্ট্রিবিউশন ব্যবহার করে তৈরি করা যেতে পারে?
Explanation: The confidence interval for a population median can be constructed non-parametrically using the order statistics of the sample. The ranks of the lower and upper bounds of the interval are determined using critical values from the Binomial distribution with p=0.5.
ব্যাখ্যা: একটি পপুলেশন মিডিয়ানের জন্য কনফিডেন্স ইন্টারভ্যাল নমুনার অর্ডার স্ট্যাটিস্টিকস ব্যবহার করে নন-প্যারামেট্রিক্যালি তৈরি করা যায়। ইন্টারভ্যালের নিম্ন এবং উচ্চ সীমার র্যাঙ্কগুলি p=0.5 সহ বাইনোমিয়াল ডিস্ট্রিবিউশনের ক্রিটিক্যাল ভ্যালু ব্যবহার করে নির্ধারিত হয়।
দুটি পয়সন গড় (λ₁ এবং λ₂) তুলনা করার জন্য পর্যবেক্ষিত গণনা X₁ এবং X₂-এর উপর ভিত্তি করে টেস্ট স্ট্যাটিস্টিক কী?
Explanation: A powerful exact test for comparing two Poisson rates involves conditioning on the total number of events, n = X₁ + X₂. Given this total, the distribution of X₁ is Binomial(n, p) where p = λ₁ / (λ₁ + λ₂). The null hypothesis H₀: λ₁ = λ₂ is equivalent to H₀: p = 0.5.
ব্যাখ্যা: দুটি পয়সন হার তুলনা করার জন্য একটি শক্তিশালী সঠিক পরীক্ষা মোট ঘটনার সংখ্যা n = X₁ + X₂-এর উপর শর্তারোপ করে। এই মোট সংখ্যা দেওয়া থাকলে, X₁-এর ডিস্ট্রিবিউশনটি হয় Binomial(n, p), যেখানে p = λ₁ / (λ₁ + λ₂)। নাল হাইপোথিসিস H₀: λ₁ = λ₂ হলো H₀: p = 0.5-এর সমতুল্য।
নরমাল পপুলেশন থেকে দুটি ভ্যারিয়েন্সের অনুপাত, σ₁²/σ₂², পরীক্ষা করার জন্য, টেস্ট স্ট্যাটিস্টিক S₁²/S₂² H₀: σ₁² = σ₂²-এর অধীনে কোন ডিস্ট্রিবিউশন অনুসরণ করে?
Explanation: The ratio of two independent chi-square variables, each divided by its degrees of freedom, follows an F-distribution. Since (n-1)S²/σ² follows a Chi-square distribution, the ratio of two sample variances (S₁²/S₂²) follows an F-distribution with (n₁ – 1) numerator degrees of freedom and (n₂ – 1) denominator degrees of freedom.
ব্যাখ্যা: দুটি স্বাধীন কাই-স্কোয়ার ভেরিয়েবলের অনুপাত, প্রত্যেকটিকে তার ডিগ্রি অব ফ্রিডম দিয়ে ভাগ করলে, একটি F-ডিস্ট্রিবিউশন অনুসরণ করে। যেহেতু (n-1)S²/σ² একটি কাই-স্কোয়ার ডিস্ট্রিবিউশন অনুসরণ করে, তাই দুটি নমুনা ভ্যারিয়েন্সের অনুপাত (S₁²/S₂²) (n₁ – 1) নিউমারেটর ডিগ্রি অব ফ্রিডম এবং (n₂ – 1) ডিনোমিনেটর ডিগ্রি অব ফ্রিডম সহ একটি F-ডিস্ট্রিবিউশন অনুসরণ করে।
একটি আংশিক কোরিলেশন কোএফিসিয়েন্ট (partial correlation coefficient) দুটি ভেরিয়েবলের মধ্যে অ্যাসোসিয়েশন পরিমাপ করে কিসের পরে?
Explanation: Partial correlation gives the “pure” correlation between two variables by controlling for the influence of one or more third variables. It shows the correlation that remains after the variance explained by the control variables is removed.
ব্যাখ্যা: আংশিক কোরিলেশন এক বা একাধিক তৃতীয় ভেরিয়েবলের প্রভাব নিয়ন্ত্রণ করে দুটি ভেরিয়েবলের মধ্যে “বিশুদ্ধ” কোরিলেশন প্রদান করে। এটি নিয়ন্ত্রণকারী ভেরিয়েবল দ্বারা ব্যাখ্যা করা ভ্যারিয়েন্স অপসারণ করার পরে অবশিষ্ট কোরিলেশন দেখায়।
একাধিক রিগ্রেশনে, একটি একক আংশিক রিগ্রেশন কোএফিসিয়েন্টের তাৎপর্য পরীক্ষা সাধারণত একটি…
Explanation: While the F-test assesses the overall model, the significance of each individual predictor (partial regression coefficient) is tested using a t-test. The test statistic is calculated as the coefficient’s estimate divided by its standard error, and it follows a t-distribution under the null hypothesis.
ব্যাখ্যা: যদিও F-টেস্ট সামগ্রিক মডেলকে মূল্যায়ন করে, প্রতিটি স্বতন্ত্র প্রেডিক্টরের (আংশিক রিগ্রেশন কোএফিসিয়েন্ট) তাৎপর্য একটি t-টেস্ট ব্যবহার করে পরীক্ষা করা হয়। টেস্ট স্ট্যাটিস্টিকটি কোএফিসিয়েন্টের অনুমানকে তার স্ট্যান্ডার্ড এরর দ্বারা ভাগ করে গণনা করা হয় এবং এটি নাল হাইপোথিসিসের অধীনে একটি t-ডিস্ট্রিবিউশন অনুসরণ করে।
ANOVA-তে একটি “টাইপ I ত্রুটি” ঘটে যখন আমরা…
Explanation: This is the standard definition of a Type I error. In the context of ANOVA, it means concluding that there is a significant difference among the group means (rejecting H₀: μ₁ = μ₂ = …) when, in reality, all group means are equal.
ব্যাখ্যা: এটি টাইপ I ত্রুটির স্ট্যান্ডার্ড সংজ্ঞা। ANOVA-এর প্রেক্ষাপটে, এর মানে হলো গ্রুপের গড়গুলির মধ্যে একটি তাৎপর্যপূর্ণ পার্থক্য আছে এই সিদ্ধান্তে আসা (H₀: μ₁ = μ₂ = … প্রত্যাখ্যান করা) যখন বাস্তবে সমস্ত গ্রুপের গড় সমান।
একটি একক পপুলেশন ভ্যারিয়েন্স σ²-এর লার্জ স্যাম্পল পরীক্ষার জন্য, টেস্ট স্ট্যাটিস্টিক [(n-1)s²]/σ₀² প্রায় কোন ডিস্ট্রিবিউশন অনুসরণ করে?
Explanation: For a sample from a normal population, the quantity (n-1)s²/σ² follows a Chi-square distribution with n-1 degrees of freedom exactly. For large samples from non-normal populations, this distribution is still often used as an approximation.
ব্যাখ্যা: একটি নরমাল পপুলেশন থেকে নমুনার জন্য, (n-1)s²/σ² রাশিটি সঠিকভাবে n-1 ডিগ্রি অব ফ্রিডম সহ একটি কাই-স্কোয়ার ডিস্ট্রিবিউশন অনুসরণ করে। নন-নরমাল পপুলেশন থেকে লার্জ স্যাম্পলের জন্য, এই ডিস্ট্রিবিউশনটি প্রায়শই একটি অ্যাপ্রোক্সিমেশন হিসাবে ব্যবহৃত হয়।
সিগেল-টুকে টেস্ট একটি নন-প্যারামেট্রিক পরীক্ষা যা কিসের জন্য?
Explanation: The Siegel-Tukey test is a non-parametric method to test for differences in scale or dispersion between two groups. It is an alternative to the F-test for variances when the normality assumption is not met.
ব্যাখ্যা: সিগেল-টুকে টেস্ট দুটি গ্রুপের মধ্যে স্কেল বা বিচ্ছুরণের পার্থক্য পরীক্ষা করার জন্য একটি নন-প্যারামেট্রিক পদ্ধতি। এটি ভ্যারিয়েন্সের জন্য F-টেস্টের একটি বিকল্প যখন নরমালিটির অনুমান পূরণ হয় না।
একটি কনফিডেন্স ইন্টারভ্যাল কী প্রদান করে?
Explanation: A confidence interval, calculated from sample data, gives a range of values that is likely to contain the unknown population parameter (like the mean or proportion) with a certain level of confidence (e.g., 95%).
ব্যাখ্যা: একটি কনফিডেন্স ইন্টারভ্যাল, যা নমুনা ডেটা থেকে গণনা করা হয়, এমন একটি মানের পরিসর দেয় যা একটি নির্দিষ্ট স্তরের আত্মবিশ্বাসের (যেমন, 95%) সাথে অজানা পপুলেশন প্যারামিটার (যেমন গড় বা অনুপাত) ধারণ করার সম্ভাবনা রাখে।
একাধিক কোরিলেশন কোএফিসিয়েন্ট (R) কিসের মধ্যে কোরিলেশনকে প্রতিনিধিত্ব করে?
Explanation: The multiple correlation coefficient, R, measures the strength of the linear relationship between the actual (observed) values of the dependent variable (Y) and the values predicted by the multiple regression model (Ŷ). R-squared (R²) is the proportion of variance in Y explained by the model.
ব্যাখ্যা: একাধিক কোরিলেশন কোএফিসিয়েন্ট, R, নির্ভরশীল ভেরিয়েবলের (Y) প্রকৃত ( পর্যবেক্ষিত) মান এবং একাধিক রিগ্রেশন মডেল দ্বারা ভবিষ্যদ্বাণীকৃত (Ŷ) মানের মধ্যে রৈখিক সম্পর্কের শক্তি পরিমাপ করে। R-স্কোয়ার্ড (R²) হলো Y-এর ভ্যারিয়েন্সের সেই অংশ যা মডেল দ্বারা ব্যাখ্যা করা হয়।
একটি সরল কোরিলেশন কোএফিসিয়েন্টের জন্য লার্জ স্যাম্পল পরীক্ষায় (H₀: ρ=0), Z-স্ট্যাটিস্টিকটি কী দ্বারা আনুমানিক করা যেতে পারে?
Explanation: For large samples, when testing if the population correlation is zero, the test statistic Z = r * √(n-1) is approximately a standard normal variable. Note that the t-test statistic t = r * √((n-2)/(1-r²)) is more accurate for smaller samples, but for large n, it converges to this Z-statistic.
ব্যাখ্যা: লার্জ স্যাম্পলের জন্য, যখন পপুলেশন কোরিলেশন শূন্য কিনা তা পরীক্ষা করা হয়, তখন টেস্ট স্ট্যাটিস্টিক Z = r * √(n-1) প্রায় একটি স্ট্যান্ডার্ড নরমাল ভেরিয়েবল। লক্ষ্য করুন যে t-টেস্ট স্ট্যাটিস্টিক t = r * √((n-2)/(1-r²)) ছোট নমুনার জন্য আরও সঠিক, কিন্তু বড় n-এর জন্য এটি এই Z-স্ট্যাটিস্টিকের দিকে অভিসারী হয়।
একটি পরিসংখ্যানিক পরীক্ষার পাওয়ার (power) হলো কিসের সম্ভাবনা?
Explanation: Power is defined as 1 – β, where β is the probability of a Type II error (failing to reject a false null hypothesis). Therefore, power is the probability of making the correct decision when the null hypothesis is actually false.
ব্যাখ্যা: পাওয়ারকে 1 – β হিসাবে সংজ্ঞায়িত করা হয়, যেখানে β হলো একটি টাইপ II ত্রুটির (একটি মিথ্যা নাল হাইপোথিসিস প্রত্যাখ্যান করতে ব্যর্থ হওয়া) সম্ভাবনা। অতএব, পাওয়ার হলো যখন নাল হাইপোথিসিসটি প্রকৃতপক্ষে মিথ্যা তখন সঠিক সিদ্ধান্ত নেওয়ার সম্ভাবনা।
অন্যান্য সব কিছু স্থির রেখে, নমুনার আকার (n) বাড়ার সাথে সাথে একটি গড়ের জন্য কনফিডেন্স ইন্টারভ্যালের প্রস্থের কী হয়?
Explanation: The width of a confidence interval is proportional to the standard error of the mean (σ/√n). As the sample size ‘n’ increases, the denominator √n increases, causing the standard error to decrease. A smaller standard error results in a narrower, more precise confidence interval.
ব্যাখ্যা: একটি কনফিডেন্স ইন্টারভ্যালের প্রস্থ গড়ের স্ট্যান্ডার্ড এররের (σ/√n) সমানুপাতিক। নমুনার আকার ‘n’ বাড়ার সাথে সাথে, ডিনোমিনেটর √n বাড়ে, যার ফলে স্ট্যান্ডার্ড এরর কমে যায়। একটি ছোট স্ট্যান্ডার্ড এররের ফলে একটি সংকীর্ণ, আরও সুনির্দিষ্ট কনফিডেন্স ইন্টারভ্যাল হয়।
একমুখী ANOVA-তে F-স্ট্যাটিস্টিকটি কিসের অনুপাত?
Explanation: The F-statistic is calculated as F = MSB / MSW (or MSE). MSB represents the variance between the sample means, and MSW represents the pooled variance within the samples. If the null hypothesis is true (all population means are equal), this ratio should be close to 1.
ব্যাখ্যা: F-স্ট্যাটিস্টিকটি F = MSB / MSW (বা MSE) হিসাবে গণনা করা হয়। MSB নমুনা গড়গুলির মধ্যে ভ্যারিয়েন্সকে প্রতিনিধিত্ব করে এবং MSW নমুনাগুলির মধ্যে পুলড ভ্যারিয়েন্সকে প্রতিনিধিত্ব করে। যদি নাল হাইপোথিসিসটি সত্য হয় (সমস্ত পপুলেশন গড় সমান), এই অনুপাতটি ১-এর কাছাকাছি হওয়া উচিত।
একটি p-ভ্যালু হলো একটি টেস্ট স্ট্যাটিস্টিক পর্যবেক্ষণ করার সম্ভাবনা যা…
Explanation: The p-value quantifies the evidence against the null hypothesis. It is the probability of obtaining the observed sample results (or more extreme results) if the null hypothesis were actually correct. A small p-value (typically < 0.05) suggests that the observed data is unlikely under the null hypothesis, leading to its rejection.
ব্যাখ্যা: p-ভ্যালু নাল হাইপোথিসিসের বিরুদ্ধে প্রমাণকে পরিমাণগতভাবে প্রকাশ করে। এটি পর্যবেক্ষিত নমুনা ফলাফল (বা আরও চরম ফলাফল) পাওয়ার সম্ভাবনা, যদি নাল হাইপোথিসিসটি প্রকৃতপক্ষে সঠিক হতো। একটি ছোট p-ভ্যালু (সাধারণত < 0.05) নির্দেশ করে যে পর্যবেক্ষিত ডেটা নাল হাইপোথিসিসের অধীনে অসম্ভাব্য, যা এটিকে প্রত্যাখ্যান করতে পরিচালিত করে।
মুডের মিডিয়ান টেস্ট একটি নন-প্যারামেট্রিক পরীক্ষা যা দুই বা ততোধিক গ্রুপের ______ তুলনা করে।
Explanation: Mood’s median test is a special case of the Chi-square test of independence. It tests the null hypothesis that the medians of the populations from which two or more samples are drawn are identical. It is a non-parametric test for location.
ব্যাখ্যা: মুডের মিডিয়ান টেস্ট স্বাধীনতার কাই-স্কোয়ার পরীক্ষার একটি বিশেষ ক্ষেত্র। এটি এই নাল হাইপোথিসিস পরীক্ষা করে যে যে পপুলেশনগুলি থেকে দুই বা ততোধিক নমুনা নেওয়া হয়েছে তাদের মিডিয়ানগুলি অভিন্ন। এটি অবস্থানের জন্য একটি নন-প্যারামেট্রিক পরীক্ষা।
যদি দুটি গড়ের পার্থক্যের (μ₁ – μ₂) জন্য কনফিডেন্স ইন্টারভ্যাল শূন্য ধারণ করে, তাহলে আমরা সেই কনফিডেন্স লেভেলে কী সিদ্ধান্তে আসতে পারি?
Explanation: A confidence interval containing zero for a difference implies that a difference of zero (i.e., μ₁ = μ₂) is a plausible value. This is equivalent to failing to reject the null hypothesis H₀: μ₁ – μ₂ = 0 in a two-tailed hypothesis test at the corresponding significance level (α = 1 – confidence level).
ব্যাখ্যা: একটি পার্থক্যের জন্য শূন্য ধারণকারী একটি কনফিডেন্স ইন্টারভ্যাল বোঝায় যে শূন্যের পার্থক্য (অর্থাৎ, μ₁ = μ₂) একটি সম্ভাব্য মান। এটি সংশ্লিষ্ট তাৎপর্য স্তরে (α = 1 – কনফিডেন্স লেভেল) একটি দ্বি-পার্শ্বিক হাইপোথিসিস পরীক্ষায় নাল হাইপোথিসিস H₀: μ₁ – μ₂ = 0 প্রত্যাখ্যান করতে ব্যর্থ হওয়ার সমতুল্য।
স্বাধীনতার কাই-স্কোয়ার পরীক্ষার জন্য কোন অনুমানটি প্রয়োজন হয় না?
Explanation: The Chi-square test is a non-parametric test used for categorical data. It does not make any assumptions about the distribution of the underlying variables, which is a key advantage over parametric tests. The other three options are all standard assumptions or requirements for the test.
ব্যাখ্যা: কাই-স্কোয়ার টেস্ট একটি নন-প্যারামেট্রিক পরীক্ষা যা ক্যাটেগরিক্যাল ডেটার জন্য ব্যবহৃত হয়। এটি অন্তর্নিহিত ভেরিয়েবলগুলির ডিস্ট্রিবিউশন সম্পর্কে কোনো অনুমান করে না, যা প্যারামেট্রিক পরীক্ষার তুলনায় একটি মূল সুবিধা। অন্য তিনটি বিকল্পই পরীক্ষার জন্য স্ট্যান্ডার্ড অনুমান বা প্রয়োজনীয়তা।
দুটি বার্নোলি অনুপাতের উপর একটি সঠিক পরীক্ষা (H₀: p₁ = p₂) করতে, কেউ ব্যবহার করতে পারে…
Explanation: The problem of comparing two independent Bernoulli proportions can be framed as a 2×2 contingency table (Success/Failure vs. Group 1/Group 2). Fisher’s exact test is the standard exact test for independence in such tables, especially for small sample sizes where the Z-test approximation is not reliable.
ব্যাখ্যা: দুটি স্বাধীন বার্নোলি অনুপাত তুলনা করার সমস্যাটি একটি 2×2 কন্টিনজেন্সি টেবিল (সফলতা/ব্যর্থতা বনাম গ্রুপ 1/গ্রুপ 2) হিসাবে তৈরি করা যেতে পারে। ফিশারের সঠিক পরীক্ষা এই ধরনের টেবিলে স্বাধীনতার জন্য স্ট্যান্ডার্ড সঠিক পরীক্ষা, বিশেষ করে ছোট নমুনার আকারের জন্য যেখানে Z-টেস্ট অ্যাপ্রোক্সিমেশন নির্ভরযোগ্য নয়।
একটি সরল রৈখিক রিগ্রেশনে, যদি কোরিলেশন কোএফিসিয়েন্ট (r) +1-এর কাছাকাছি হয়, তবে এটি নির্দেশ করে…
Explanation: The correlation coefficient ‘r’ ranges from -1 to +1. A value near +1 signifies that as one variable increases, the other variable also increases in a nearly perfect linear fashion. A value near -1 indicates a strong negative linear relationship, and a value near 0 indicates little to no linear relationship.
ব্যাখ্যা: কোরিলেশন কোএফিসিয়েন্ট ‘r’ -1 থেকে +1 পর্যন্ত বিস্তৃত। +1-এর কাছাকাছি একটি মান বোঝায় যে একটি ভেরিয়েবল বাড়ার সাথে সাথে অন্য ভেরিয়েবলটিও প্রায় নিখুঁত রৈখিক পদ্ধতিতে বাড়ে। -1-এর কাছাকাছি একটি মান একটি শক্তিশালী ঋণাত্মক রৈখিক সম্পর্ক নির্দেশ করে, এবং 0-এর কাছাকাছি একটি মান সামান্য বা কোনো রৈখিক সম্পর্ক নির্দেশ করে না।
একটি সরল রৈখিক রিগ্রেশন মডেলে একটি একক রিগ্রেশন কোএফিসিয়েন্ট (β₁)-এর t-টেস্টের জন্য ডিগ্রি অব ফ্রিডম হলো…
Explanation: In a simple linear regression model (Y = β₀ + β₁X + ε), two parameters (β₀ and β₁) are estimated from the data. The degrees of freedom for the error (and thus for the t-test of the coefficients) are the number of observations (n) minus the number of parameters estimated, which is n – 2.
ব্যাখ্যা: একটি সরল রৈখিক রিগ্রেশন মডেলে (Y = β₀ + β₁X + ε), দুটি প্যারামিটার (β₀ এবং β₁) ডেটা থেকে অনুমান করা হয়। ত্রুটির জন্য ডিগ্রি অব ফ্রিডম (এবং এইভাবে কোএফিসিয়েন্টগুলির t-টেস্টের জন্য) হলো পর্যবেক্ষণের সংখ্যা (n) বিয়োগ অনুমিত প্যারামিটারের সংখ্যা, যা হলো n – 2।
দুটি পৃথক একমুখী ANOVA-এর তুলনায় দ্বিমুখী ANOVA-এর প্রাথমিক উদ্দেশ্য হলো…
Explanation: A two-way ANOVA not only tests the main effects of two independent variables (factors) but, more importantly, it allows for the testing of an interaction effect. An interaction occurs if the effect of one factor changes at different levels of the other factor. This cannot be assessed by running two separate one-way ANOVAs.
ব্যাখ্যা: একটি দ্বিমুখী ANOVA শুধুমাত্র দুটি স্বাধীন ভেরিয়েবলের (ফ্যাক্টর) প্রধান প্রভাবই পরীক্ষা করে না, বরং আরও গুরুত্বপূর্ণভাবে, এটি একটি ইন্টারঅ্যাকশন এফেক্ট পরীক্ষা করার সুযোগ দেয়। একটি ইন্টারঅ্যাকশন ঘটে যদি একটি ফ্যাক্টরের প্রভাব অন্য ফ্যাক্টরের বিভিন্ন স্তরে পরিবর্তিত হয়। দুটি পৃথক একমুখী ANOVA চালিয়ে এটি মূল্যায়ন করা যায় না।
যদি একটি একক ভ্যারিয়েন্সের জন্য একটি লার্জ-স্যাম্পল পরীক্ষা 2.5-এর একটি Z-স্ট্যাটিস্টিক দেয়, তাহলে একটি দ্বি-পার্শ্বিক পরীক্ষার জন্য α = 0.05-এ কী সিদ্ধান্ত নেওয়া যেতে পারে?
Explanation: For a two-tailed test at α = 0.05, the critical Z-values are ±1.96. Since the calculated Z-statistic of 2.5 is greater than 1.96 (i.e., it falls in the rejection region), we reject the null hypothesis.
ব্যাখ্যা: α = 0.05-এ একটি দ্বি-পার্শ্বিক পরীক্ষার জন্য, ক্রিটিক্যাল Z-মান হলো ±1.96। যেহেতু গণনা করা Z-স্ট্যাটিস্টিক 2.5, যা 1.96-এর চেয়ে বড় (অর্থাৎ, এটি প্রত্যাখ্যান অঞ্চলে পড়ে), তাই আমরা নাল হাইপোথিসিস প্রত্যাখ্যান করি।
সাইন টেস্ট (sign test) কিসের জন্য একটি নন-প্যারামেট্রিক পরীক্ষা?
Explanation: The sign test is one of the simplest non-parametric tests. It can be used to test the null hypothesis that the median of a population is equal to some hypothesized value. It only considers the signs (+ or -) of the differences between observations and the hypothesized median, ignoring their magnitudes.
ব্যাখ্যা: সাইন টেস্ট সবচেয়ে সহজ নন-প্যারামেট্রিক পরীক্ষাগুলির মধ্যে একটি। এটি একটি পপুলেশনের মিডিয়ান কোনো অনুমিত মানের সমান কিনা তা পরীক্ষা করার জন্য ব্যবহার করা যেতে পারে। এটি শুধুমাত্র পর্যবেক্ষণ এবং অনুমিত মিডিয়ানের মধ্যে পার্থক্যের চিহ্ন (+ বা -) বিবেচনা করে, তাদের মান উপেক্ষা করে।
একটি নন-প্যারামেট্রিক টলারেন্স লিমিটের জন্য প্রয়োজন…
Explanation: Non-parametric tolerance limits are distribution-free, meaning they do not assume a specific population distribution. They are constructed using the ordered values of the sample. For example, the interval between the smallest and largest observation (the range) is a non-parametric tolerance interval.
ব্যাখ্যা: নন-প্যারামেট্রিক টলারেন্স লিমিটগুলি ডিস্ট্রিবিউশন-মুক্ত, যার অর্থ তারা কোনো নির্দিষ্ট পপুলেশন ডিস্ট্রিবিউশন অনুমান করে না। এগুলি নমুনার সাজানো মান ব্যবহার করে তৈরি করা হয়। উদাহরণস্বরূপ, সবচেয়ে ছোট এবং সবচেয়ে বড় পর্যবেক্ষণের মধ্যে ব্যবধান (পরিসর) একটি নন-প্যারামেট্রিক টলারেন্স ইন্টারভ্যাল।
হাইপোথিসিস পরীক্ষার প্রেক্ষাপটে, α (আলফা) কী?
Explanation: The significance level, denoted by α, is the pre-determined probability of making a Type I error (rejecting a true null hypothesis). The researcher sets this value (commonly 0.05, 0.01, or 0.10) before conducting the test.
ব্যাখ্যা: তাৎপর্য স্তর, যা α দ্বারা চিহ্নিত করা হয়, হলো একটি টাইপ I ত্রুটি (একটি সত্য নাল হাইপোথিসিস প্রত্যাখ্যান করা) করার পূর্ব-নির্ধারিত সম্ভাবনা। গবেষক পরীক্ষা পরিচালনার আগে এই মানটি (সাধারণত 0.05, 0.01, বা 0.10) নির্ধারণ করেন।
একাধিক রিগ্রেশনে একটি আংশিক F-টেস্ট কী মূল্যায়ন করে?
Explanation: A partial F-test is used to determine if a subset of predictor variables contributes significantly to the model, given that another subset of variables is already in the model. It compares a “full” model with a “reduced” model.
ব্যাখ্যা: একটি আংশিক F-টেস্ট নির্ধারণ করতে ব্যবহৃত হয় যে প্রেডিক্টর ভেরিয়েবলের একটি উপসেট মডেলে তাৎপর্যপূর্ণভাবে অবদান রাখে কিনা, যখন ভেরিয়েবলের অন্য একটি উপসেট ইতিমধ্যে মডেলে রয়েছে। এটি একটি “সম্পূর্ণ” মডেলকে একটি “হ্রাসকৃত” মডেলের সাথে তুলনা করে।
হোমোজিনিটি এবং ইন্ডিপেন্ডেন্সের জন্য কাই-স্কোয়ার পরীক্ষার মধ্যে প্রধান পার্থক্য হলো…
Explanation: Mathematically, the two tests are identical. The difference lies in the sampling scheme. The test of independence uses one sample from a single population to see if two variables are related. The test of homogeneity uses multiple samples from different populations to see if they are similar with respect to one variable.
ব্যাখ্যা: গাণিতিকভাবে, দুটি পরীক্ষা অভিন্ন। পার্থক্যটি স্যাম্পলিং স্কিমের মধ্যে রয়েছে। স্বাধীনতার পরীক্ষা একটি একক পপুলেশন থেকে একটি নমুনা ব্যবহার করে দুটি ভেরিয়েবল সম্পর্কিত কিনা তা দেখতে। হোমোজিনিটির পরীক্ষা বিভিন্ন পপুলেশন থেকে একাধিক নমুনা ব্যবহার করে তারা একটি ভেরিয়েবলের ক্ষেত্রে একই রকম কিনা তা দেখতে।
দুটি ভ্যারিয়েন্সের অনুপাত σ₁²/σ₂²-এর জন্য কনফিডেন্স ইন্টারভ্যাল কী ব্যবহার করে তৈরি করা হয়?
Explanation: Since the ratio of sample variances (S₁²/S₂²) follows an F-distribution, the confidence interval for the corresponding population variance ratio is based on this distribution. The interval is formed as [(S₁²/S₂²)/F_upper, (S₁²/S₂²)/F_lower], where F_upper and F_lower are critical values from the F-distribution.
ব্যাখ্যা: যেহেতু নমুনা ভ্যারিয়েন্সের অনুপাত (S₁²/S₂²) একটি F-ডিস্ট্রিবিউশন অনুসরণ করে, তাই সংশ্লিষ্ট পপুলেশন ভ্যারিয়েন্স অনুপাতের জন্য কনফিডেন্স ইন্টারভ্যাল এই ডিস্ট্রিবিউশনের উপর ভিত্তি করে তৈরি। ইন্টারভ্যালটি [(S₁²/S₂²)/F_upper, (S₁²/S₂²)/F_lower] হিসাবে গঠিত হয়, যেখানে F_upper এবং F_lower হলো F-ডিস্ট্রিবিউশনের ক্রিটিক্যাল মান।
ফ্রিডম্যান টেস্ট কিসের জন্য একটি নন-প্যারামেট্রিক বিকল্প?
Explanation: The Friedman test is used to detect differences in treatments across multiple test attempts in a repeated measures design. It is the non-parametric equivalent of the one-way repeated measures ANOVA, or a two-way ANOVA for a randomized block design where the blocks are the subjects.
ব্যাখ্যা: ফ্রিডম্যান টেস্ট একটি রিপিটেড মেজারস ডিজাইনে একাধিক পরীক্ষার চেষ্টায় চিকিৎসার পার্থক্য সনাক্ত করতে ব্যবহৃত হয়। এটি একমুখী রিপিটেড মেজারস ANOVA বা একটি র্যান্ডমাইজড ব্লক ডিজাইনের জন্য দ্বিমুখী ANOVA-এর নন-প্যারামেট্রিক সমতুল্য, যেখানে ব্লকগুলি হলো সাবজেক্ট।
যদি একটি গুডনেস-অফ-ফিট পরীক্ষার p-ভ্যালু 0.03 হয়, তবে এটি কী বোঝায়?
Explanation: The null hypothesis for a goodness-of-fit test is that the data *does* fit the specified distribution. A small p-value (like 0.03, which is less than the common alpha of 0.05) leads to the rejection of the null hypothesis. This means we conclude that the observed data’s distribution is significantly different from the theoretical one.
ব্যাখ্যা: একটি গুডনেস-অফ-ফিট পরীক্ষার জন্য নাল হাইপোথিসিস হলো যে ডেটা নির্দিষ্ট ডিস্ট্রিবিউশনের সাথে ফিট করে। একটি ছোট p-ভ্যালু (যেমন 0.03, যা সাধারণ আলফা 0.05-এর চেয়ে কম) নাল হাইপোথিসিস প্রত্যাখ্যানের দিকে নিয়ে যায়। এর মানে হলো আমরা এই সিদ্ধান্তে আসি যে পর্যবেক্ষিত ডেটার ডিস্ট্রিবিউশন তাত্ত্বিকটির থেকে তাৎপর্যপূর্ণভাবে ভিন্ন।
একটি সঠিক পরীক্ষাকে (exact test) “সঠিক” বলা হয় কারণ…
Explanation: The term “exact” refers to the calculation of the p-value. An exact test calculates the p-value directly from the true probability distribution of the test statistic (e.g., Binomial, Hypergeometric), rather than approximating it with another distribution (e.g., Normal, Chi-square). This ensures the Type I error rate is exactly equal to the significance level, α.
ব্যাখ্যা: “সঠিক” শব্দটি p-ভ্যালুর গণনাকে বোঝায়। একটি সঠিক পরীক্ষা p-ভ্যালু সরাসরি টেস্ট স্ট্যাটিস্টিকের প্রকৃত সম্ভাব্যতা ডিস্ট্রিবিউশন (যেমন, বাইনোমিয়াল, হাইপারজিওমেট্রিক) থেকে গণনা করে, অন্য কোনো ডিস্ট্রিবিউশন (যেমন, নরমাল, কাই-স্কোয়ার) দ্বারা এটিকে অ্যাপ্রোক্সিমেট করার পরিবর্তে। এটি নিশ্চিত করে যে টাইপ I ত্রুটির হার তাৎপর্য স্তর α-এর ঠিক সমান।
দুটি গড়ের পার্থক্যের জন্য t-টেস্টের (স্বাধীন নমুনা) একটি অনুমান কোনটি?
Explanation: The standard (pooled) two-sample t-test assumes that while the population means may be different, their variances are equal. This allows for the “pooling” of the sample variances to get a better estimate of the common population variance. Welch’s t-test is an adaptation that does not require this assumption.
ব্যাখ্যা: স্ট্যান্ডার্ড (পুলড) দুই-নমুনা t-টেস্ট অনুমান করে যে যদিও পপুলেশন গড় ভিন্ন হতে পারে, তাদের ভ্যারিয়েন্স সমান। এটি সাধারণ পপুলেশন ভ্যারিয়েন্সের একটি ভালো অনুমান পাওয়ার জন্য নমুনা ভ্যারিয়েন্সগুলিকে “পুল” করার অনুমতি দেয়। ওয়েলচের t-টেস্ট একটি অভিযোজন যা এই অনুমানের প্রয়োজন হয় না।
পিয়ারসন কোরিলেশন টেস্টের চেয়ে স্পিয়ারম্যানের র্যাঙ্ক কোরিলেশন টেস্ট কখন বেশি উপযুক্ত?
Explanation: Spearman’s correlation is a non-parametric measure of rank correlation. It assesses how well the relationship between two variables can be described using a monotonic function. It is ideal for ordinal data or for continuous data that has a non-linear but consistently increasing or decreasing relationship, or has outliers.
ব্যাখ্যা: স্পিয়ারম্যানের কোরিলেশন র্যাঙ্ক কোরিলেশনের একটি নন-প্যারামেট্রিক পরিমাপ। এটি মূল্যায়ন করে যে দুটি ভেরিয়েবলের মধ্যে সম্পর্ক একটি মনোটোনিক ফাংশন ব্যবহার করে কতটা ভালোভাবে বর্ণনা করা যায়। এটি অর্ডিনাল ডেটা বা কন্টিনিউয়াস ডেটার জন্য আদর্শ যা একটি অরৈখিক কিন্তু ধারাবাহিকভাবে ক্রমবর্ধমান বা হ্রাসমান সম্পর্কযুক্ত, বা আউটলায়ার রয়েছে।
ANOVA-তে, যদি নাল হাইপোথিসিস প্রত্যাখ্যান করা হয়, তবে পরবর্তী যৌক্তিক পদক্ষেপ কী?
Explanation: A significant F-test in ANOVA only tells you that *at least one* group mean is different from the others. It does not identify *which* specific means are different. Post-hoc tests (like Tukey’s HSD, Bonferroni, Scheffe’s test) are used for pairwise comparisons to find out where the significant differences lie.
ব্যাখ্যা: ANOVA-তে একটি তাৎপর্যপূর্ণ F-টেস্ট শুধুমাত্র বলে যে *অন্তত একটি* গ্রুপের গড় অন্যদের থেকে ভিন্ন। এটি চিহ্নিত করে না যে *কোন* নির্দিষ্ট গড়গুলি ভিন্ন। পোস্ট-হক পরীক্ষা (যেমন টুকির HSD, বনফেরোনি, শেফের পরীক্ষা) জোড়ায় জোড়ায় তুলনা করার জন্য ব্যবহৃত হয় যাতে তাৎপর্যপূর্ণ পার্থক্যগুলি কোথায় রয়েছে তা খুঁজে বের করা যায়।
Z = (1/2)ln[(1+r)/(1-r)] রূপান্তরটি কী নামে পরিচিত?
Explanation: This is the formula for Fisher’s z-transformation, which is applied to the sample correlation coefficient ‘r’ to produce a variable that is approximately normally distributed. This is crucial for constructing confidence intervals and testing hypotheses about the population correlation coefficient, ρ, especially when ρ ≠ 0.
ব্যাখ্যা: এটি ফিশারের z-রূপান্তরের সূত্র, যা নমুনা কোরিলেশন কোএফিসিয়েন্ট ‘r’-এর উপর প্রয়োগ করা হয় এমন একটি ভেরিয়েবল তৈরি করার জন্য যা প্রায় নরমালি ডিস্ট্রিবিউটেড। এটি পপুলেশন কোরিলেশন কোএফিসিয়েন্ট ρ সম্পর্কে কনফিডেন্স ইন্টারভ্যাল তৈরি এবং হাইপোথিসিস পরীক্ষা করার জন্য অত্যন্ত গুরুত্বপূর্ণ, বিশেষ করে যখন ρ ≠ 0।
একটি গুডনেস-অফ-ফিট পরীক্ষায় কাই-স্কোয়ার স্ট্যাটিস্টিকের একটি বড় মান কী নির্দেশ করে?
Explanation: The Chi-square statistic is calculated as Σ[(O-E)²/E]. A large value indicates that the squared differences between observed (O) and expected (E) frequencies are large, meaning the data does not fit the model that was used to generate the expected frequencies. This leads to rejecting the null hypothesis of a good fit.
ব্যাখ্যা: কাই-স্কোয়ার স্ট্যাটিস্টিকটি Σ[(O-E)²/E] হিসাবে গণনা করা হয়। একটি বড় মান নির্দেশ করে যে পর্যবেক্ষিত (O) এবং প্রত্যাশিত (E) ফ্রিকোয়েন্সির মধ্যে বর্গ পার্থক্যগুলি বড়, যার অর্থ ডেটা সেই মডেলের সাথে ফিট করে না যা প্রত্যাশিত ফ্রিকোয়েন্সি তৈরি করতে ব্যবহৃত হয়েছিল। এটি একটি ভালো ফিটের নাল হাইপোথিসিস প্রত্যাখ্যানের দিকে নিয়ে যায়।
যখন প্যারামেট্রিক পরীক্ষার অনুমানগুলি পূরণ হয়, তখন নন-প্যারামেট্রিক পদ্ধতিগুলি সাধারণত তাদের প্যারামেট্রিক প্রতিরূপের চেয়ে কম _______ বলে বিবেচিত হয়।
Explanation: “Power” refers to a test’s ability to detect a true effect (reject a false H₀). If the data truly meet the assumptions of a parametric test (like normality), that test will be more powerful than its non-parametric alternative. This is because the parametric test uses more information from the data (the actual values), whereas non-parametric tests often use only ranks.
ব্যাখ্যা: “পাওয়ার” একটি পরীক্ষার একটি প্রকৃত প্রভাব সনাক্ত করার ক্ষমতাকে বোঝায় (একটি মিথ্যা H₀ প্রত্যাখ্যান করা)। যদি ডেটা সত্যিই একটি প্যারামেট্রিক পরীক্ষার (যেমন নরমালিটি) অনুমানগুলি পূরণ করে, তবে সেই পরীক্ষাটি তার নন-প্যারামেট্রিক বিকল্পের চেয়ে বেশি শক্তিশালী হবে। এর কারণ হলো প্যারামেট্রিক পরীক্ষা ডেটা থেকে আরও তথ্য ব্যবহার করে (প্রকৃত মান), যেখানে নন-প্যারামেট্রিক পরীক্ষাগুলি প্রায়শই শুধুমাত্র র্যাঙ্ক ব্যবহার করে।
একটি একক রিগ্রেশন কোএফিসিয়েন্ট (β₁)-এর জন্য কনফিডেন্স ইন্টারভ্যাল কিসের জন্য সম্ভাব্য মানের একটি পরিসর দেয়?
Explanation: The sample regression gives us an estimate (a point estimate) of the true, unknown population slope (β₁). The confidence interval provides a range of values within which we are confident the true population slope lies.
ব্যাখ্যা: নমুনা রিগ্রেশন আমাদের প্রকৃত, অজানা পপুলেশন স্লোপ (β₁)-এর একটি অনুমান (একটি পয়েন্ট এস্টিমেট) দেয়। কনফিডেন্স ইন্টারভ্যাল এমন একটি মানের পরিসর প্রদান করে যার মধ্যে আমরা আত্মবিশ্বাসী যে প্রকৃত পপুলেশন স্লোপটি অবস্থিত।
দুটি পপুলেশন ভ্যারিয়েন্সের জন্য একটি লার্জ স্যাম্পল পরীক্ষায়, সাধারণ নাল হাইপোথিসিস কী?
Explanation: The test for equality of variances compares the two population variances, σ₁² and σ₂². The null hypothesis states that they are equal, which can be expressed as H₀: σ₁² = σ₂² or, equivalently, as H₀: σ₁²/σ₂² = 1. The test statistic is typically the ratio of the sample variances, F = s₁²/s₂².
ব্যাখ্যা: ভ্যারিয়েন্সের সমতার পরীক্ষা দুটি পপুলেশন ভ্যারিয়েন্স, σ₁² এবং σ₂², তুলনা করে। নাল হাইপোথিসিস বলে যে তারা সমান, যা H₀: σ₁² = σ₂² বা সমতুল্যভাবে, H₀: σ₁²/σ₂² = 1 হিসাবে প্রকাশ করা যেতে পারে। টেস্ট স্ট্যাটিস্টিকটি সাধারণত নমুনা ভ্যারিয়েন্সের অনুপাত, F = s₁²/s₂²।
একটি রিগ্রেশন সমস্যার জন্য একটি ANOVA টোটাল সাম অফ স্কোয়ারস (SST)-কে কী কী অংশে বিভক্ত করে?
Explanation: In a regression context, the total variation in the dependent variable (SST) is broken down into two parts: the variation that is explained by the regression model (SSR) and the variation that is left unexplained, or random error (SSE). So, SST = SSR + SSE.
ব্যাখ্যা: একটি রিগ্রেশন প্রেক্ষাপটে, নির্ভরশীল ভেরিয়েবলের মোট পরিবর্তনশীলতা (SST)-কে দুটি অংশে বিভক্ত করা হয়: যে পরিবর্তনশীলতা রিগ্রেশন মডেল দ্বারা ব্যাখ্যা করা হয় (SSR) এবং যে পরিবর্তনশীলতা অব্যক্ত থাকে, বা র্যান্ডম ত্রুটি (SSE)। সুতরাং, SST = SSR + SSE।
একাধিক কোরিলেশন কোএফিসিয়েন্ট, R-এর মানের পরিসর কত?
Explanation: Unlike a simple correlation coefficient (r), which can be negative, the multiple correlation coefficient (R) represents the correlation between observed Y values and predicted Ŷ values. Since the model is optimized to make this correlation as high as possible, R is always non-negative and ranges from 0 (no relationship) to 1 (perfect linear relationship).
ব্যাখ্যা: একটি সরল কোরিলেশন কোএফিসিয়েন্ট (r)-এর মতো নয়, যা ঋণাত্মক হতে পারে, একাধিক কোরিলেশন কোএফিসিয়েন্ট (R) পর্যবেক্ষিত Y মান এবং ভবিষ্যদ্বাণীকৃত Ŷ মানের মধ্যে কোরিলেশনকে প্রতিনিধিত্ব করে। যেহেতু মডেলটি এই কোরিলেশনকে যতটা সম্ভব উচ্চ করার জন্য অপ্টিমাইজ করা হয়, তাই R সর্বদা অ-ঋণাত্মক এবং 0 (কোনো সম্পর্ক নেই) থেকে 1 (নিখুঁত রৈখিক সম্পর্ক) পর্যন্ত বিস্তৃত।
একটি মিডিয়ানের জন্য নন-প্যারামেট্রিক কনফিডেন্স লিমিটের একটি মূল বৈশিষ্ট্য হলো এগুলি কিসের উপর ভিত্তি করে?
Explanation: Non-parametric confidence intervals for quantiles (like the median) are constructed by selecting two of the ordered data points (order statistics) from the sample. For instance, a 95% confidence interval for the median might be the interval from the 3rd smallest to the 3rd largest value in a sample of a certain size. The choice of which order statistics to use is determined by the binomial distribution.
ব্যাখ্যা: কোয়ান্টাইলগুলির (যেমন মিডিয়ান) জন্য নন-প্যারামেট্রিক কনফিডেন্স ইন্টারভ্যাল নমুনা থেকে দুটি সাজানো ডেটা পয়েন্ট (অর্ডার স্ট্যাটিস্টিকস) নির্বাচন করে তৈরি করা হয়। উদাহরণস্বরূপ, একটি নির্দিষ্ট আকারের নমুনায় মিডিয়ানের জন্য একটি 95% কনফিডেন্স ইন্টারভ্যাল ৩য় ক্ষুদ্রতম থেকে ৩য় বৃহত্তম মানের ব্যবধান হতে পারে। কোন অর্ডার স্ট্যাটিস্টিকস ব্যবহার করতে হবে তা বাইনোমিয়াল ডিস্ট্রিবিউশন দ্বারা নির্ধারিত হয়।
লার্জ স্যাম্পল সহ দুটি বার্নোলি অনুপাতের (p₁ এবং p₂) সমতা পরীক্ষা করার সময়, Z-টেস্ট স্ট্যাটিস্টিক একটি “পুলড” অনুপাত ব্যবহার করে। এই পুলড অনুপাতটি কীভাবে গণনা করা হয়?
Explanation: Under the null hypothesis that p₁ = p₂, we assume a common proportion ‘p’. The best estimate for this common proportion is the “pooled” proportion, which combines the total number of successes (x₁ + x₂) from both samples and divides by the total sample size (n₁ + n₂).
ব্যাখ্যা: p₁ = p₂ এই নাল হাইপোথিসিসের অধীনে, আমরা একটি সাধারণ অনুপাত ‘p’ অনুমান করি। এই সাধারণ অনুপাতের জন্য সেরা অনুমান হলো “পুলড” অনুপাত, যা উভয় নমুনা থেকে মোট সাফল্যের সংখ্যা (x₁ + x₂) একত্রিত করে এবং মোট নমুনার আকার (n₁ + n₂) দ্বারা ভাগ করে।
যদি একটি একমুখী ANOVA-তে একটি F-টেস্টের মান 1-এর খুব কাছাকাছি হয়, তবে এটি নির্দেশ করে…
Explanation: The F-statistic is the ratio MSB/MSW. If this ratio is close to 1, it means MSB ≈ MSW. This is exactly what we would expect if the null hypothesis is true (i.e., all population means are equal), because in that case, both MSB and MSW are independent estimates of the same population variance, σ². This would lead to a high p-value and a failure to reject H₀.
ব্যাখ্যা: F-স্ট্যাটিস্টিক হলো MSB/MSW অনুপাত। যদি এই অনুপাতটি 1-এর কাছাকাছি হয়, তার মানে MSB ≈ MSW। এটি ঠিক তাই যা আমরা আশা করব যদি নাল হাইপোথিসিসটি সত্য হয় (অর্থাৎ, সমস্ত পপুলেশন গড় সমান), কারণ সেই ক্ষেত্রে, MSB এবং MSW উভয়ই একই পপুলেশন ভ্যারিয়েন্স, σ²-এর স্বাধীন অনুমান। এটি একটি উচ্চ p-ভ্যালু এবং H₀ প্রত্যাখ্যান করতে ব্যর্থতার দিকে নিয়ে যাবে।
মিডিয়ানের উপরে এবং নিচে রানের সংখ্যার উপর ভিত্তি করে র্যান্ডমনেসের পরীক্ষাটি কী ধরনের পরীক্ষা?
Explanation: This directly describes the procedure for a run test. A sequence of data is dichotomized (e.g., into values above or below the median). A “run” is a sequence of identical symbols. Too few or too many runs suggest that the data sequence is not random.
ব্যাখ্যা: এটি সরাসরি একটি রান টেস্টের পদ্ধতি বর্ণনা করে। ডেটার একটি ক্রমকে দ্বিখণ্ডিত করা হয় (যেমন, মিডিয়ানের উপরে বা নিচের মানগুলিতে)। একটি “রান” হলো অভিন্ন প্রতীকগুলির একটি ক্রম। খুব কম বা খুব বেশি রান নির্দেশ করে যে ডেটা ক্রমটি র্যান্ডম নয়।
একটি সরল রৈখিক রিগ্রেশন ANOVA-তে F-টেস্টের জন্য ডিগ্রি অব ফ্রিডম হলো…
Explanation: The F-statistic is the ratio of Mean Square Regression (MSR) to Mean Square Error (MSE). In simple linear regression (one predictor), the degrees of freedom for regression is 1. The degrees of freedom for error is n – 2. Therefore, the F-statistic has (1, n-2) degrees of freedom.
ব্যাখ্যা: F-স্ট্যাটিস্টিক হলো মিন স্কোয়ার রিগ্রেশন (MSR) এবং মিন স্কোয়ার এরর (MSE)-এর অনুপাত। সরল রৈখিক রিগ্রেশনে (একটি প্রেডিক্টর), রিগ্রেশনের জন্য ডিগ্রি অব ফ্রিডম হলো 1। ত্রুটির জন্য ডিগ্রি অব ফ্রিডম হলো n – 2। অতএব, F-স্ট্যাটিস্টিকের (1, n-2) ডিগ্রি অব ফ্রিডম রয়েছে।
আর্কসাইন স্কোয়ার রুট রূপান্তর, sin⁻¹(√p), বিশেষভাবে কোন ধরনের ডেটার জন্য ডিজাইন করা হয়েছে?
Explanation: This transformation is used to stabilize the variance of binomial data, which are typically expressed as proportions (p = x/n). The variance of a proportion, p(1-p)/n, depends on its mean (p), violating the assumption of homogeneity of variance required by tests like ANOVA. The arcsine transformation makes the variance approximately independent of p.
ব্যাখ্যা: এই রূপান্তরটি বাইনোমিয়াল ডেটার ভ্যারিয়েন্স স্থিতিশীল করতে ব্যবহৃত হয়, যা সাধারণত অনুপাত (p = x/n) হিসাবে প্রকাশ করা হয়। একটি অনুপাতের ভ্যারিয়েন্স, p(1-p)/n, তার গড়ের (p) উপর নির্ভর করে, যা ANOVA-র মতো পরীক্ষার জন্য প্রয়োজনীয় ভ্যারিয়েন্সের সমজাতীয়তার অনুমান লঙ্ঘন করে। আর্কসাইন রূপান্তর ভ্যারিয়েন্সকে প্রায় p-এর থেকে স্বাধীন করে তোলে।
একটি “রোবাস্ট” (robust) পরিসংখ্যানিক পরীক্ষা হলো এমন একটি পরীক্ষা যা…
Explanation: Robustness in statistics refers to the property of a test or estimator to be resistant to violations of its underlying assumptions. For example, a t-test is fairly robust to moderate departures from normality, but Levene’s test is more robust than Bartlett’s test to non-normality when comparing variances.
ব্যাখ্যা: পরিসংখ্যানে রোবাস্টনেস একটি পরীক্ষা বা এস্টিমেটরের তার অন্তর্নিহিত অনুমানগুলির লঙ্ঘনের প্রতি প্রতিরোধী হওয়ার বৈশিষ্ট্যকে বোঝায়। উদাহরণস্বরূপ, একটি t-টেস্ট নরমালিটি থেকে মাঝারি বিচ্যুতির প্রতি মোটামুটি রোবাস্ট, কিন্তু ভ্যারিয়েন্স তুলনা করার সময় বার্টলেটের টেস্টের চেয়ে লেভিনের টেস্ট নন-নরমালিটির প্রতি বেশি রোবাস্ট।
একটি একক আংশিক কোরিলেশন কোএফিসিয়েন্ট (যেমন, ρ₁₂.₃ = 0) সম্পর্কে একটি হাইপোথিসিস পরীক্ষা করতে, কেউ একটি … ব্যবহার করতে পারে।
Explanation: The significance test for a partial correlation coefficient is analogous to the test for a simple correlation. A t-statistic is formed, and its degrees of freedom are n minus the number of variables involved in the correlation (2) minus the number of variables controlled for (k). For ρ₁₂.₃, two variables are correlated and one (k=1) is controlled, so df = n-2-1 = n-3. More generally, it’s n minus the number of variables in the correlation. For r₁₂.₃ it is n-3, for r₁₂.₃₄ it is n-4. The formula shown in option B is slightly inaccurate; a more general formula is df = n – (number of variables in correlation). But the key point is it’s a t-test with adjusted df. Let’s adjust the option to be more correct. A t-test with n-m degrees of freedom, where m is the total number of variables involved. For r₁₂.₃, m=3, so df=n-3. Let’s assume the option meant df=n-3 for this specific case.
ব্যাখ্যা: একটি আংশিক কোরিলেশন কোএফিসিয়েন্টের জন্য তাৎপর্য পরীক্ষাটি একটি সরল কোরিলেশনের পরীক্ষার অনুরূপ। একটি t-স্ট্যাটিস্টিক গঠিত হয়, এবং এর ডিগ্রি অব ফ্রিডম হলো n বিয়োগ কোরিলেশনে জড়িত ভেরিয়েবলের সংখ্যা (২) বিয়োগ নিয়ন্ত্রিত ভেরিয়েবলের সংখ্যা (k)। ρ₁₂.₃-এর জন্য, দুটি ভেরিয়েবল কোরিলেটেড এবং একটি (k=1) নিয়ন্ত্রিত, তাই df = n-2-1 = n-3। আরও সাধারণভাবে, এটি n বিয়োগ কোরিলেশনে জড়িত ভেরিয়েবলের সংখ্যা। r₁₂.₃-এর জন্য এটি n-3, r₁₂.₃₄-এর জন্য এটি n-4। অপশন B-তে দেখানো সূত্রটি সামান্য ভুল; একটি সাধারণ সূত্র হলো df = n – (কোরিলেশনে জড়িত ভেরিয়েবলের সংখ্যা)। কিন্তু মূল বিষয় হলো এটি একটি সামঞ্জস্যপূর্ণ df সহ একটি t-টেস্ট। এই নির্দিষ্ট ক্ষেত্রের জন্য অপশনটি df=n-3 বোঝাতে চেয়েছে বলে ধরে নেওয়া যাক।
আপনি যদি তিনটি ভিন্ন পেশায় পুরুষ এবং মহিলাদের বেতন তুলনা করতে চান, তবে সবচেয়ে উপযুক্ত পরিসংখ্যানিক পরীক্ষাটি হবে…
Explanation: This problem has one dependent variable (salary) and two independent categorical variables (factors): Gender (2 levels: men, women) and Profession (3 levels). A two-way ANOVA is the perfect tool to analyze the main effects of both gender and profession on salary, as well as the potential interaction effect between them (e.g., does the gender pay gap differ across professions?).
ব্যাখ্যা: এই সমস্যাটির একটি নির্ভরশীল ভেরিয়েবল (বেতন) এবং দুটি স্বাধীন ক্যাটেগরিক্যাল ভেরিয়েবল (ফ্যাক্টর) রয়েছে: লিঙ্গ (২টি স্তর: পুরুষ, মহিলা) এবং পেশা (৩টি স্তর)। একটি দ্বিমুখী ANOVA বেতনের উপর লিঙ্গ এবং পেশা উভয়ের প্রধান প্রভাব, সেইসাথে তাদের মধ্যে সম্ভাব্য ইন্টারঅ্যাকশন এফেক্ট (যেমন, লিঙ্গ বেতনের ব্যবধান কি পেশা জুড়ে ভিন্ন?) বিশ্লেষণ করার জন্য নিখুঁত হাতিয়ার।
নন-প্যারামেট্রিক পরীক্ষা ব্যবহারের প্রধান কারণ হলো…
Explanation: The primary motivation for choosing a non-parametric test is when the data violates the key assumptions required by a parametric test, most commonly the assumption of normality. They are also used for ordinal data or when sample sizes are very small.
ব্যাখ্যা: একটি নন-প্যারামেট্রিক পরীক্ষা বেছে নেওয়ার প্রাথমিক প্রেরণা হলো যখন ডেটা একটি প্যারামেট্রিক পরীক্ষার জন্য প্রয়োজনীয় মূল অনুমানগুলি লঙ্ঘন করে, সবচেয়ে সাধারণ হলো নরমালিটির অনুমান। এগুলি অর্ডিনাল ডেটা বা যখন নমুনার আকার খুব ছোট হয় তখনও ব্যবহৃত হয়।
“ডিগ্রি অব ফ্রিডম” শব্দটি সাধারণত কী বোঝায়?
Explanation: Degrees of freedom represent the amount of independent information available to estimate a parameter. It is the number of sample observations that can be chosen freely after certain restrictions (like a fixed sample mean) have been imposed. For example, if you have 3 numbers with a mean of 10, once you pick the first two numbers, the third is fixed to make the mean 10. So there are 3-1=2 degrees of freedom.
ব্যাখ্যা: ডিগ্রি অব ফ্রিডম একটি প্যারামিটার অনুমান করার জন্য উপলব্ধ স্বাধীন তথ্যের পরিমাণকে প্রতিনিধিত্ব করে। এটি নমুনা পর্যবেক্ষণের সংখ্যা যা নির্দিষ্ট বিধিনিষেধ (যেমন একটি নির্দিষ্ট নমুনা গড়) আরোপ করার পরে স্বাধীনভাবে বেছে নেওয়া যেতে পারে। উদাহরণস্বরূপ, যদি আপনার কাছে 10 গড় সহ 3টি সংখ্যা থাকে, একবার আপনি প্রথম দুটি সংখ্যা বেছে নিলে, গড় 10 করার জন্য তৃতীয়টি স্থির হয়ে যায়। তাই এখানে 3-1=2 ডিগ্রি অব ফ্রিডম রয়েছে।
হাইপোথিসিস পরীক্ষায়, যদি p-ভ্যালু তাৎপর্য স্তর α-এর চেয়ে বড় হয়, আমরা…
Explanation: The decision rule is: If p-value ≤ α, reject H₀. If p-value > α, fail to reject H₀. A large p-value indicates that the observed data is quite likely under the null hypothesis, so there is not enough evidence to reject it.
ব্যাখ্যা: সিদ্ধান্তের নিয়ম হলো: যদি p-ভ্যালু ≤ α, H₀ প্রত্যাখ্যান করুন। যদি p-ভ্যালু > α, H₀ প্রত্যাখ্যান করতে ব্যর্থ হন। একটি বড় p-ভ্যালু নির্দেশ করে যে পর্যবেক্ষিত ডেটা নাল হাইপোথিসিসের অধীনে বেশ সম্ভাব্য, তাই এটি প্রত্যাখ্যান করার জন্য যথেষ্ট প্রমাণ নেই।
একমুখী ANOVA-তে F-স্ট্যাটিস্টিকের ডিনোমিনেটর, মিন স্কোয়ার উইদিন (MSW), কিসের একটি অনুমান?
Explanation: The Mean Square Within (also called Mean Square Error, MSE) is a pooled estimate of the variance within each of the groups. Under the assumption of homogeneity of variance, it serves as an estimate of the common variance (σ²) of the populations from which the samples were drawn. It is an unbiased estimator of σ² regardless of whether H₀ is true or false.
ব্যাখ্যা: মিন স্কোয়ার উইদিন (মিন স্কোয়ার এরর, MSE নামেও পরিচিত) প্রতিটি গ্রুপের ভেতরের ভ্যারিয়েন্সের একটি পুলড অনুমান। ভ্যারিয়েন্সের সমজাতীয়তার অনুমানের অধীনে, এটি যে পপুলেশনগুলি থেকে নমুনা নেওয়া হয়েছিল তাদের সাধারণ ভ্যারিয়েন্স (σ²)-এর একটি অনুমান হিসাবে কাজ করে। H₀ সত্য বা মিথ্যা যাই হোক না কেন, এটি σ²-এর একটি আনবায়াসড এস্টিমেটর।
তিনটি ভিন্ন ব্র্যান্ডের কফির জন্য পছন্দ সমানভাবে বণ্টিত কিনা তা নির্ধারণ করতে কোন পরীক্ষাটি ব্যবহার করা হবে?
Explanation: This is a classic goodness-of-fit problem. You have one categorical variable (coffee brand preference) with three levels. The null hypothesis is that the proportions are equal for all three brands (i.e., p₁=p₂=p₃=1/3), which is a uniform distribution. The test would compare the observed number of people preferring each brand to the expected number (total people / 3).
ব্যাখ্যা: এটি একটি ক্লাসিক গুডনেস-অফ-ফিট সমস্যা। আপনার কাছে তিনটি স্তর সহ একটি ক্যাটেগরিক্যাল ভেরিয়েবল (কফি ব্র্যান্ডের পছন্দ) রয়েছে। নাল হাইপোথিসিস হলো যে তিনটি ব্র্যান্ডের জন্য অনুপাত সমান (অর্থাৎ, p₁=p₂=p₃=1/3), যা একটি ইউনিফর্ম ডিস্ট্রিবিউশন। পরীক্ষাটি প্রতিটি ব্র্যান্ড পছন্দকারী পর্যবেক্ষিত লোকের সংখ্যাকে প্রত্যাশিত সংখ্যার (মোট লোক / 3) সাথে তুলনা করবে।
পপুলেশন গড় µ-এর জন্য একটি কনফিডেন্স ইন্টারভ্যাল হলো [10, 20]। H₀: µ = 22 বনাম H₁: µ ≠ 22-এর একটি পরীক্ষা…
Explanation: There is a direct duality between confidence intervals and two-sided hypothesis tests. If the hypothesized value under H₀ is *not* contained within the confidence interval, then we reject H₀ at the corresponding significance level. Since 22 is outside the interval [10, 20], we reject the null hypothesis that the mean is 22.
ব্যাখ্যা: কনফিডেন্স ইন্টারভ্যাল এবং দ্বি-পার্শ্বিক হাইপোথিসিস পরীক্ষার মধ্যে একটি সরাসরি দ্বৈততা রয়েছে। যদি H₀-এর অধীনে অনুমিত মানটি কনফিডেন্স ইন্টারভ্যালের মধ্যে না থাকে, তবে আমরা সংশ্লিষ্ট তাৎপর্য স্তরে H₀ প্রত্যাখ্যান করি। যেহেতু 22 ব্যবধান [10, 20]-এর বাইরে, আমরা এই নাল হাইপোথিসিস প্রত্যাখ্যান করি যে গড় 22।
একটি ভ্যারিয়েন্স স্থিতিশীলকারী রূপান্তরের উদ্দেশ্য হলো ভ্যারিয়েন্সকে…
Explanation: Many statistical procedures (like ANOVA and regression) assume that the variance of the errors is constant across all levels of the predictor variables (homoscedasticity). In some raw data (like Poisson or Binomial), the variance is a function of the mean. A variance stabilizing transformation creates a new variable where the variance is constant, or at least much less dependent on the mean, thus satisfying the assumption.
ব্যাখ্যা: অনেক পরিসংখ্যানিক পদ্ধতি (যেমন ANOVA এবং রিগ্রেশন) অনুমান করে যে ত্রুটির ভ্যারিয়েন্স প্রেডিক্টর ভেরিয়েবলের সমস্ত স্তর জুড়ে ধ্রুবক (হোমোসেডাস্টিসিটি)। কিছু কাঁচা ডেটাতে (যেমন পয়সন বা বাইনোমিয়াল), ভ্যারিয়েন্স গড়ের একটি ফাংশন। একটি ভ্যারিয়েন্স স্থিতিশীলকারী রূপান্তর একটি নতুন ভেরিয়েবল তৈরি করে যেখানে ভ্যারিয়েন্স ধ্রুবক, বা অন্তত গড়ের উপর অনেক কম নির্ভরশীল, এইভাবে অনুমানটি পূরণ করে।
দুটি পয়সন হার তুলনা করার জন্য একটি সঠিক পরীক্ষায়, ব্যবহৃত শর্তসাপেক্ষ ডিস্ট্রিবিউশনটি হলো…
Explanation: Given two independent Poisson counts X₁ ~ Poisson(λ₁) and X₂ ~ Poisson(λ₂), the exact test conditions on their sum, n = X₁ + X₂. The conditional distribution of X₁ given X₁+X₂=n is Binomial(n, p) where p = λ₁ / (λ₁ + λ₂). Testing H₀: λ₁ = λ₂ is then equivalent to testing H₀: p = 0.5 using this binomial distribution.
ব্যাখ্যা: দুটি স্বাধীন পয়সন গণনা X₁ ~ Poisson(λ₁) এবং X₂ ~ Poisson(λ₂) দেওয়া থাকলে, সঠিক পরীক্ষাটি তাদের যোগফল, n = X₁ + X₂-এর উপর শর্তারোপ করে। X₁+X₂=n দেওয়া থাকলে X₁-এর শর্তসাপেক্ষ ডিস্ট্রিবিউশনটি হলো Binomial(n, p) যেখানে p = λ₁ / (λ₁ + λ₂)। H₀: λ₁ = λ₂ পরীক্ষা করা তখন এই বাইনোমিয়াল ডিস্ট্রিবিউশন ব্যবহার করে H₀: p = 0.5 পরীক্ষা করার সমতুল্য।
উইলকক্সন সাইনড-র্যাঙ্ক টেস্ট সাইন টেস্টের চেয়ে বেশি শক্তিশালী কারণ এটি ব্যবহার করে…
Explanation: The sign test only uses the direction (positive or negative) of the differences, discarding information about how large those differences are. The Wilcoxon signed-rank test improves on this by ranking the absolute values of the differences and then summing the ranks based on their original signs. By incorporating this extra information (the magnitude via ranks), it generally has more power to detect a true difference.
ব্যাখ্যা: সাইন টেস্ট শুধুমাত্র পার্থক্যগুলির দিক (ধনাত্মক বা ঋণাত্মক) ব্যবহার করে, সেই পার্থক্যগুলি কতটা বড় সেই তথ্য বাতিল করে দেয়। উইলকক্সন সাইনড-র্যাঙ্ক টেস্ট পার্থক্যগুলির পরম মানগুলিকে র্যাঙ্ক করে এবং তারপর তাদের মূল চিহ্নের উপর ভিত্তি করে র্যাঙ্কগুলির যোগফল নির্ণয় করে এটির উন্নতি করে। এই অতিরিক্ত তথ্য (র্যাঙ্কের মাধ্যমে মান) অন্তর্ভুক্ত করার মাধ্যমে, এটি সাধারণত একটি প্রকৃত পার্থক্য সনাক্ত করার জন্য বেশি শক্তিশালী হয়।
একটি “টাইপ II ত্রুটি” হলো… এর ত্রুটি।
Explanation: A Type II error, denoted by β, occurs when a statistical test fails to detect a real effect. The null hypothesis is false (e.g., there really is a difference between two groups), but the test result is not significant, so we fail to reject the null hypothesis. It is a “missed opportunity”.
ব্যাখ্যা: একটি টাইপ II ত্রুটি, যা β দ্বারা চিহ্নিত করা হয়, ঘটে যখন একটি পরিসংখ্যানিক পরীক্ষা একটি প্রকৃত প্রভাব সনাক্ত করতে ব্যর্থ হয়। নাল হাইপোথিসিসটি মিথ্যা (যেমন, দুটি গ্রুপের মধ্যে সত্যিই একটি পার্থক্য রয়েছে), কিন্তু পরীক্ষার ফলাফল তাৎপর্যপূর্ণ নয়, তাই আমরা নাল হাইপোথিসিস প্রত্যাখ্যান করতে ব্যর্থ হই। এটি একটি “সুযোগ হাতছাড়া করা”।
দুটি অর্ডিনাল ভেরিয়েবলের মধ্যে সম্পর্ক পরীক্ষা করার জন্য, সবচেয়ে উপযুক্ত নন-প্যারামেট্রিক পরীক্ষাটি হলো…
Explanation: Both Spearman’s rho and Kendall’s tau are rank-based correlation coefficients. They are designed to measure the strength and direction of the monotonic association between two variables that are at least ordinal. The Mann-Whitney and Wilcoxon tests are for location differences, not association.
ব্যাখ্যা: স্পিয়ারম্যানের রো এবং কেন্ডালের টাউ উভয়ই র্যাঙ্ক-ভিত্তিক কোরিলেশন কোএফিসিয়েন্ট। এগুলি দুটি ভেরিয়েবলের মধ্যে মনোটোনিক অ্যাসোসিয়েশনের শক্তি এবং দিক পরিমাপ করার জন্য ডিজাইন করা হয়েছে যা অন্তত অর্ডিনাল। মান-হুইটনি এবং উইলকক্সন পরীক্ষাগুলি অবস্থানের পার্থক্যের জন্য, অ্যাসোসিয়েশনের জন্য নয়।
একটি রিগ্রেশন ANOVA টেবিলে, R-স্কোয়ার্ড কীভাবে গণনা করা যেতে পারে?
Explanation: R-squared, the coefficient of determination, represents the proportion of the total variance in the dependent variable (SST) that is explained by the regression model (SSR). Therefore, R² = Sum of Squares Regression / Total Sum of Squares.
ব্যাখ্যা: R-স্কোয়ার্ড, কোএফিসিয়েন্ট অব ডিটারমিনেশন, নির্ভরশীল ভেরিয়েবলের মোট ভ্যারিয়েন্সের (SST) সেই অংশকে প্রতিনিধিত্ব করে যা রিগ্রেশন মডেল দ্বারা ব্যাখ্যা করা হয় (SSR)। অতএব, R² = সাম অফ স্কোয়ারস রিগ্রেশন / টোটাল সাম অফ স্কোয়ারস।
একটি এক-পার্শ্বিক t-টেস্ট কখন ব্যবহৃত হয়?
Explanation: A one-tailed (or one-sided) test is appropriate when the alternative hypothesis specifies a direction of the difference or relationship. For example, testing if a new drug *improves* reaction time (H₁: µ < µ₀) rather than just *changes* it (H₁: µ ≠ µ₀), which would require a two-tailed test.
ব্যাখ্যা: একটি এক-পার্শ্বিক পরীক্ষা উপযুক্ত যখন বিকল্প হাইপোথিসিসটি পার্থক্য বা সম্পর্কের একটি দিক নির্দিষ্ট করে। উদাহরণস্বরূপ, একটি নতুন ওষুধ প্রতিক্রিয়ার সময় *উন্নত করে* কিনা (H₁: µ < µ₀) তা পরীক্ষা করা, শুধুমাত্র এটি *পরিবর্তন করে* কিনা (H₁: µ ≠ µ₀) তা নয়, যার জন্য একটি দ্বি-পার্শ্বিক পরীক্ষা প্রয়োজন হবে।
কাই-স্কোয়ার স্ট্যাটিস্টিকের মান সর্বদা…
Explanation: The Chi-square statistic is calculated by summing squared differences divided by expected values (Σ[(O-E)²/E]). Since all terms in the sum are squared (or are ratios of positive numbers), the resulting statistic can never be negative. It will be zero only if the observed frequencies perfectly match the expected frequencies.
ব্যাখ্যা: কাই-স্কোয়ার স্ট্যাটিস্টিক বর্গ করা পার্থক্যগুলির যোগফলকে প্রত্যাশিত মান দ্বারা ভাগ করে গণনা করা হয় (Σ[(O-E)²/E])। যেহেতু যোগফলের সমস্ত পদ বর্গ করা হয় (বা ধনাত্মক সংখ্যার অনুপাত), ফলস্বরূপ স্ট্যাটিস্টিকটি কখনও ঋণাত্মক হতে পারে না। এটি কেবল তখনই শূন্য হবে যদি পর্যবেক্ষিত ফ্রিকোয়েন্সিগুলি প্রত্যাশিত ফ্রিকোয়েন্সিগুলির সাথে পুরোপুরি মিলে যায়।
ফিশারের সঠিক পরীক্ষা ব্যবহারের পিছনে প্রাথমিক অনুমানটি হলো…
Explanation: Fisher’s exact test calculates the probability of obtaining the observed cell counts, and all more extreme configurations, given that the marginal totals are fixed. It uses the hypergeometric distribution to compute these probabilities exactly, without relying on any large-sample approximation.
ব্যাখ্যা: ফিশারের সঠিক পরীক্ষা পর্যবেক্ষিত সেল গণনা পাওয়ার সম্ভাবনা এবং আরও সমস্ত চরম কনফিগারেশনের সম্ভাবনা গণনা করে, যখন মার্জিনাল মোট সংখ্যা স্থির থাকে। এটি এই সম্ভাবনাগুলি সঠিকভাবে গণনা করার জন্য হাইপারজিওমেট্রিক ডিস্ট্রিবিউশন ব্যবহার করে, কোনো লার্জ-স্যাম্পল অ্যাপ্রোক্সিমেশনের উপর নির্ভর না করে।
এই পরীক্ষাগুলির মধ্যে কোনটি কেন্দ্রীয় প্রবণতা (যেমন গড় বা মিডিয়ান) তুলনা করার সাথে সম্পর্কিত নয়?
Explanation: The t-test, ANOVA, and Mann-Whitney U test are all designed to compare measures of central tendency (means for the first two, medians/distributions for the third). Levene’s test is a test for homogeneity of variances; it compares the dispersion or spread of two or more groups, not their central location.
ব্যাখ্যা: t-টেস্ট, ANOVA, এবং মান-হুইটনি U টেস্ট সবই কেন্দ্রীয় প্রবণতার পরিমাপ তুলনা করার জন্য ডিজাইন করা হয়েছে (প্রথম দুটির জন্য গড়, তৃতীয়টির জন্য মিডিয়ান/ডিস্ট্রিবিউশন)। লেভিনের টেস্ট ভ্যারিয়েন্সের সমজাতীয়তার জন্য একটি পরীক্ষা; এটি দুই বা ততোধিক গ্রুপের বিচ্ছুরণ বা বিস্তৃতি তুলনা করে, তাদের কেন্দ্রীয় অবস্থান নয়।
একটি “আউটলায়ার” হলো একটি ডেটা পয়েন্ট যা…
Explanation: An outlier is an observation point that is distant from other observations. It may be due to variability in the measurement or it may indicate experimental error; the latter are sometimes excluded from the data set. Outliers can have a significant impact on parametric statistics like the mean and standard deviation.
ব্যাখ্যা: একটি আউটলায়ার হলো একটি পর্যবেক্ষণ বিন্দু যা অন্যান্য পর্যবেক্ষণ থেকে দূরে অবস্থিত। এটি পরিমাপের পরিবর্তনশীলতার কারণে হতে পারে বা এটি পরীক্ষামূলক ত্রুটি নির্দেশ করতে পারে; পরবর্তীগুলি কখনও কখনও ডেটা সেট থেকে বাদ দেওয়া হয়। আউটলায়ারগুলি গড় এবং স্ট্যান্ডার্ড ডেভিয়েশনের মতো প্যারামেট্রিক পরিসংখ্যানের উপর একটি তাৎপর্যপূর্ণ প্রভাব ফেলতে পারে।
একটি সরল কোরিলেশন কোএফিসিয়েন্ট ‘r’-এর পরিসর হলো:
Explanation: The Pearson simple correlation coefficient ‘r’ measures the strength and direction of a linear relationship. It is bounded between -1 (perfect negative linear correlation) and +1 (perfect positive linear correlation). A value of 0 indicates no linear correlation.
ব্যাখ্যা: পিয়ারসন সরল কোরিলেশন কোএফিসিয়েন্ট ‘r’ একটি রৈখিক সম্পর্কের শক্তি এবং দিক পরিমাপ করে। এটি -1 (নিখুঁত ঋণাত্মক রৈখিক কোরিলেশন) এবং +1 (নিখুঁত ধনাত্মক রৈখিক কোরিলেশন)-এর মধ্যে সীমাবদ্ধ। 0-এর একটি মান কোনো রৈখিক কোরিলেশন নির্দেশ করে না।
যদি একজন গবেষক α = 0.05-এর পরিবর্তে α = 0.01 নির্ধারণ করেন, তবে তারা…
Explanation: Alpha (α) is the probability of a Type I error (rejecting a true null hypothesis). By lowering α from 0.05 to 0.01, the researcher is making the criterion for statistical significance more stringent. This reduces the risk of making a Type I error, but it also increases the risk of a Type II error (and thus decreases the power of the test).
ব্যাখ্যা: আলফা (α) হলো একটি টাইপ I ত্রুটির (একটি সত্য নাল হাইপোথিসিস প্রত্যাখ্যান করা) সম্ভাবনা। α-কে 0.05 থেকে 0.01-এ নামিয়ে আনার মাধ্যমে, গবেষক পরিসংখ্যানগত তাৎপর্যের মানদণ্ডকে আরও কঠোর করছেন। এটি একটি টাইপ I ত্রুটি করার ঝুঁকি কমায়, কিন্তু এটি একটি টাইপ II ত্রুটির ঝুঁকি বাড়ায় (এবং এইভাবে পরীক্ষার পাওয়ার কমায়)।
একাধিক কোরিলেশন কোএফিসিয়েন্ট (R)-এর তাৎপর্যের জন্য পরীক্ষাটি হলো…
Explanation: The significance of the multiple correlation coefficient R is tested using the same F-test that assesses the overall significance of the regression model. The null hypothesis is H₀: R = 0 (or equivalently, ρ = 0), which is tested against H₁: R > 0. The F-statistic is calculated from R² as F = [R²/(1-R²)] * [(n-k-1)/k], where k is the number of predictors.
ব্যাখ্যা: একাধিক কোরিলেশন কোএফিসিয়েন্ট R-এর তাৎপর্য সেই একই F-টেস্ট ব্যবহার করে পরীক্ষা করা হয় যা রিগ্রেশন মডেলের সামগ্রিক তাৎপর্য মূল্যায়ন করে। নাল হাইপোথিসিস হলো H₀: R = 0 (বা সমতুল্যভাবে, ρ = 0), যা H₁: R > 0-এর বিরুদ্ধে পরীক্ষা করা হয়। F-স্ট্যাটিস্টিকটি R² থেকে F = [R²/(1-R²)] * [(n-k-1)/k] হিসাবে গণনা করা হয়, যেখানে k হলো প্রেডিক্টরের সংখ্যা।