Section A: Mathematical Theory of Probability
1. Which of the following is a random experiment? / নিচের কোনটি একটি দৈব পরীক্ষা?
Explanation: A random experiment is a process whose outcome cannot be predicted with certainty, but the set of all possible outcomes is known. Tossing a coin, even a biased one, has an uncertain outcome (Heads or Tails).
ব্যাখ্যা: একটি দৈব পরীক্ষা হলো এমন একটি প্রক্রিয়া যার ফলাফল নিশ্চিতভাবে বলা যায় না, কিন্তু সমস্ত সম্ভাব্য ফলাফলের সেট জানা থাকে। একটি মুদ্রা নিক্ষেপ, এমনকি পক্ষপাতদুষ্ট হলেও, এর ফলাফল (হেড বা টেল) অনিশ্চিত।
2. The classical definition of probability P(A) = m/n is not applicable when: / সম্ভাবনার ক্লাসিক্যাল সংজ্ঞা P(A) = m/n প্রযোজ্য হয় না যখন:
Explanation: The primary drawback of the classical definition of probability is its reliance on the assumption that all elementary outcomes in the sample space are equally likely. If they are not, this definition fails.
ব্যাখ্যা: সম্ভাবনার ক্লাসিক্যাল সংজ্ঞার প্রধান সীমাবদ্ধতা হলো এটি এই অনুমানের উপর নির্ভর করে যে নমুনাক্ষেত্রের সমস্ত প্রাথমিক ফলাফল সমভাবে সম্ভাব্য। যদি তা না হয়, তবে এই সংজ্ঞাটি ব্যর্থ হয়।
3. According to the axioms of probability, what is the probability of the entire sample space, P(S)? / সম্ভাবনার স্বতঃসিদ্ধ অনুসারে, সম্পূর্ণ নমুনাক্ষেত্রের সম্ভাবনা, P(S) কত?
Explanation: One of the fundamental axioms of probability (Kolmogorov’s axioms) states that the probability of the entire sample space (the certain event) is 1. This means one of the possible outcomes must occur.
ব্যাখ্যা: সম্ভাবনার মৌলিক স্বতঃসিদ্ধগুলির মধ্যে একটি (কলমোগোরভের স্বতঃসিদ্ধ) বলে যে সম্পূর্ণ নমুনাক্ষেত্রের (নিশ্চিত ঘটনা) সম্ভাবনা হলো 1। এর অর্থ হলো সম্ভাব্য ফলাফলগুলির মধ্যে একটি অবশ্যই ঘটবে।
4. For two independent events A and B, the multiplication rule states: / দুটি স্বাধীন ঘটনা A এবং B-এর জন্য, সম্ভাবনার গুণন সূত্রটি হলো:
Explanation: For two events to be independent, the occurrence of one does not affect the probability of the other. The probability of both occurring is the product of their individual probabilities: P(A ∩ B) = P(A) * P(B).
ব্যাখ্যা: দুটি ঘটনা স্বাধীন হওয়ার অর্থ হলো একটির সংঘটন অন্যটির সম্ভাবনাকে প্রভাবিত করে না। দুটি ঘটনা একসাথে ঘটার সম্ভাবনা তাদের পৃথক সম্ভাবনার গুণফলের সমান: P(A ∩ B) = P(A) * P(B)।
5. Bayes’ Theorem is used to calculate: / বেসের উপপাদ্য কী গণনা করতে ব্যবহৃত হয়?
Explanation: Bayes’ Theorem describes the probability of an event, based on prior knowledge of conditions that might be related to the event. It calculates the posterior probability P(A|B) from the prior probability P(A) and the likelihood P(B|A).
ব্যাখ্যা: বেসের উপপাদ্য একটি ঘটনার সম্ভাবনা বর্ণনা করে, যা সেই ঘটনার সাথে সম্পর্কিত হতে পারে এমন শর্তগুলির পূর্ববর্তী জ্ঞানের উপর ভিত্তি করে। এটি পূর্ববর্তী সম্ভাবনা P(A) এবং সম্ভাবনা P(B|A) থেকে উত্তরবর্তী সম্ভাবনা P(A|B) গণনা করে।
6. Which of the following is NOT a property of a Bernoulli trial? / নিচের কোনটি বার্নোলি পরীক্ষার বৈশিষ্ট্য নয়?
Explanation: A key characteristic of a sequence of Bernoulli trials is that the probability of success, ‘p’, remains constant for every trial.
ব্যাখ্যা: বার্নোলি পরীক্ষার একটি মূল বৈশিষ্ট্য হলো প্রতিটি চেষ্টায় সফলতার সম্ভাবনা ‘p’ স্থির থাকে।
7. A function F(x) = P(X ≤ x) is called: / একটি ফাংশন F(x) = P(X ≤ x)-কে বলা হয়:
Explanation: The Cumulative Distribution Function (CDF), F(x), of a random variable X gives the probability that X will take a value less than or equal to x. It is defined for both discrete and continuous random variables.
ব্যাখ্যা: একটি দৈব চলক X-এর ক্রমযোজিত নিবেশন অপেক্ষক (CDF), F(x), হলো সেই সম্ভাবনা যা নির্দেশ করে যে X-এর মান x-এর সমান বা তার চেয়ে কম হবে। এটি বিচ্ছিন্ন এবং অবিচ্ছিন্ন উভয় প্রকার দৈব চলকের জন্য সংজ্ঞায়িত।
8. In a Binomial distribution B(n, p), the variance is: / একটি দ্বিপদ নিবেশন B(n, p)-তে, ভেদাঙ্ক হলো:
Explanation: For a Binomial distribution with parameters ‘n’ (number of trials) and ‘p’ (probability of success), the mean is μ = np and the variance is σ² = np(1-p).
ব্যাখ্যা: ‘n’ (চেষ্টার সংখ্যা) এবং ‘p’ (সফলতার সম্ভাবনা) প্যারামিটার সহ একটি দ্বিপদ নিবেশনের জন্য, গড় হলো μ = np এবং ভেদাঙ্ক হলো σ² = np(1-p)।
9. For a Poisson distribution, a key characteristic is: / একটি পয়সন নিবেশনের জন্য, একটি মূল বৈশিষ্ট্য হলো:
Explanation: In a Poisson distribution with parameter λ, both the mean (expected value) and the variance are equal to λ. This is a unique and defining property of the Poisson distribution.
ব্যাখ্যা: λ প্যারামিটার সহ একটি পয়সন নিবেশনে, গড় (প্রত্যাশিত মান) এবং ভেদাঙ্ক উভয়ই λ-এর সমান। এটি পয়সন নিবেশনের একটি অনন্য এবং সংজ্ঞায়িত বৈশিষ্ট্য।
10. The shape of a Normal distribution curve is: / একটি নর্মাল নিবেশন রেখার আকৃতি হলো:
Explanation: The Normal distribution is characterized by its symmetric, bell-shaped curve. The mean, median, and mode are all equal and located at the center of the distribution.
ব্যাখ্যা: নর্মাল নিবেশন তার প্রতিসম, ঘণ্টাকৃতি রেখার জন্য পরিচিত। গড়, মধ্যমা এবং সংখ্যাগুরু মান সবই সমান এবং নিবেশনের কেন্দ্রে অবস্থিত।
11. For a standard normal distribution, the mean and variance are respectively: / একটি স্ট্যান্ডার্ড নর্মাল নিবেশনের জন্য, গড় এবং ভেদাঙ্ক যথাক্রমে:
Explanation: A standard normal distribution is a special case of the normal distribution where the mean (μ) is 0 and the standard deviation (σ) is 1. Therefore, the variance (σ²) is also 1.
ব্যাখ্যা: একটি স্ট্যান্ডার্ড নর্মাল নিবেশন হলো নর্মাল নিবেশনের একটি বিশেষ ক্ষেত্র যেখানে গড় (μ) হলো 0 এবং পরিমিত বিচ্যুতি (σ) হলো 1। সুতরাং, ভেদাঙ্কও (σ²) 1 হয়।
12. Which distribution is known for having an undefined mean and variance? / কোন নিবেশনটি অসংজ্ঞায়িত গড় এবং ভেদাঙ্কের জন্য পরিচিত?
Explanation: The Cauchy distribution is a continuous probability distribution that is a pathological case in probability theory. The integrals for its expected value (mean) and variance do not converge, so they are undefined.
ব্যাখ্যা: কোশি নিবেশন হলো একটি অবিচ্ছিন্ন সম্ভাবনা নিবেশন যা সম্ভাবনাতত্ত্বে একটি ব্যতিক্রমী উদাহরণ। এর প্রত্যাশিত মান (গড়) এবং ভেদাঙ্কের জন্য ইন্টিগ্রালগুলি অভিসারী হয় না, তাই সেগুলি অসংজ্ঞায়িত।
13. The Beta distribution of the first kind is defined on the interval: / প্রথম প্রকারের বিটা নিবেশনটি কোন ব্যবধানে সংজ্ঞায়িত?
Explanation: The Beta distribution is a family of continuous probability distributions defined on the interval [0, 1], parameterized by two positive shape parameters, denoted by α and β. It is often used to model probabilities or proportions.
ব্যাখ্যা: বিটা নিবেশন হলো [0, 1] ব্যবধানে সংজ্ঞায়িত অবিচ্ছিন্ন সম্ভাবনা নিবেশনের একটি পরিবার, যা দুটি ধনাত্মক আকার প্যারামিটার α এবং β দ্বারা চিহ্নিত। এটি প্রায়শই সম্ভাবনা বা অনুপাত মডেল করতে ব্যবহৃত হয়।
14. A Poisson process describes: / একটি পয়সন প্রক্রিয়া বর্ণনা করে:
Explanation: A Poisson process is a stochastic process that models a series of discrete events where the average time between events is known, but the exact timing of events is random. The events occur independently and at a constant average rate.
ব্যাখ্যা: একটি পয়সন প্রক্রিয়া হলো একটি স্টোক্যাস্টিক প্রক্রিয়া যা বিচ্ছিন্ন ঘটনাগুলির একটি সিরিজ মডেল করে যেখানে ঘটনাগুলির মধ্যে গড় সময় জানা থাকে, কিন্তু ঘটনাগুলির সঠিক সময় দৈব। ঘটনাগুলি স্বাধীনভাবে এবং একটি স্থির গড় হারে ঘটে।
15. If X is a random variable and Y = aX + b, then Var(Y) is: / যদি X একটি দৈব চলক এবং Y = aX + b হয়, তাহলে Var(Y) হলো:
Explanation: One of the properties of variance is that Var(aX + b) = a² * Var(X). The constant ‘b’ shifts the distribution but does not change its spread (variance), and the constant ‘a’ scales the spread by its square.
ব্যাখ্যা: ভেদাঙ্কের একটি বৈশিষ্ট্য হলো Var(aX + b) = a² * Var(X)। ধ্রুবক ‘b’ নিবেশনটিকে স্থানান্তরিত করে কিন্তু এর বিস্তার (ভেদাঙ্ক) পরিবর্তন করে না, এবং ধ্রুবক ‘a’ বিস্তারকে তার বর্গ দ্বারা স্কেল করে।
16. The mathematical expectation E(X) is also known as the: / গাণিতিক প্রত্যাশা E(X)-কে অন্য কী নামে জানা যায়?
Explanation: The mathematical expectation, or expected value, of a random variable is the long-run average value of repetitions of the experiment it represents. It is synonymous with the mean of the distribution.
ব্যাখ্যা: একটি দৈব চলকের গাণিতিক প্রত্যাশা বা প্রত্যাশিত মান হলো সেই পরীক্ষার পুনরাবৃত্তির দীর্ঘমেয়াদী গড় মান। এটি নিবেশনের গড়ের সমার্থক।
17. A measure of the asymmetry of a probability distribution is its: / একটি সম্ভাবনা নিবেশনের অপ্রতিসাম্যের পরিমাপ হলো তার:
Explanation: Skewness is a measure of the lack of symmetry of a distribution. A distribution with positive skew has a tail that is pulled to the right, while negative skew has a tail pulled to the left. A symmetric distribution (like the Normal) has a skewness of zero.
ব্যাখ্যা: বঙ্কিমতা হলো একটি নিবেশনের প্রতিসাম্যের অভাবের পরিমাপ। ধনাত্মক বঙ্কিমতাযুক্ত নিবেশনের লেজ ডানদিকে প্রসারিত থাকে, আর ঋণাত্মক বঙ্কিমতাযুক্ত নিবেশনের লেজ বামদিকে প্রসারিত থাকে। একটি প্রতিসম নিবেশনের (যেমন নর্মাল) বঙ্কিমতা শূন্য হয়।
18. Kurtosis is a measure of a distribution’s: / কুর্টোসিস একটি নিবেশনের কীসের পরিমাপ?
Explanation: Kurtosis measures the “tailedness” or “peakedness” of a probability distribution relative to a normal distribution. High kurtosis (leptokurtic) means a sharp peak and heavy tails, while low kurtosis (platykurtic) means a flat top and light tails.
ব্যাখ্যা: কুর্টোসিস একটি নর্মাল নিবেশনের সাপেক্ষে একটি সম্ভাবনা নিবেশনের “লেজের স্থূলতা” বা “চূড়ার উচ্চতা” পরিমাপ করে। উচ্চ কুর্টোসিস (লেপ্টোকার্টিক) মানে একটি তীক্ষ্ণ চূড়া এবং ভারী লেজ, আর নিম্ন কুর্টোসিস (প্ল্যাটিকর্টিক) মানে একটি সমতল শীর্ষ এবং হালকা লেজ।
19. The Moment-Generating Function (MGF) of a random variable X is defined as: / একটি দৈব চলক X-এর পরিঘাত উৎপাদক অপেক্ষক (MGF) সংজ্ঞায়িত হয় এভাবে:
Explanation: The MGF of a random variable X is M_X(t) = E(etX), provided this expectation exists for t in some neighborhood of 0. It is called “moment-generating” because the k-th derivative of the MGF evaluated at t=0 gives the k-th moment about the origin, E(Xk).
ব্যাখ্যা: একটি দৈব চলক X-এর MGF হলো M_X(t) = E(etX), যদি এই প্রত্যাশাটি 0-এর কাছাকাছি কিছু t-এর জন্য বিদ্যমান থাকে। এটিকে “পরিঘাত উৎপাদক” বলা হয় কারণ t=0 বিন্দুতে MGF-এর k-তম ডেরিভেটিভ মূলবিন্দুর সাপেক্ষে k-তম পরিঘাত, E(Xk) দেয়।
20. The covariance, Cov(X, Y), measures the: / সহভেদাঙ্ক, Cov(X, Y), কী পরিমাপ করে?
Explanation: Covariance indicates the direction of the linear relationship between two random variables. A positive covariance means they tend to move in the same direction, while a negative covariance means they move in opposite directions. Its magnitude is not standardized, so it doesn’t measure the strength well; correlation coefficient does that.
ব্যাখ্যা: সহভেদাঙ্ক দুটি দৈব চলকের মধ্যে রৈখিক সম্পর্কের দিক নির্দেশ করে। একটি ধনাত্মক সহভেদাঙ্ক মানে তারা একই দিকে যাওয়ার প্রবণতা দেখায়, আর একটি ঋণাত্মক সহভেদাঙ্ক মানে তারা বিপরীত দিকে চলে। এর মান প্রমিত নয়, তাই এটি সম্পর্কের শক্তি ভালোভাবে পরিমাপ করে না; সেই কাজটি সহসম্বন্ধ গুণাঙ্ক করে।
21. The range of the correlation coefficient, ρ(X, Y), is: / সহসম্বন্ধ গুণাঙ্ক, ρ(X, Y)-এর পরিসর হলো:
Explanation: The correlation coefficient is a standardized measure of the linear relationship between two variables. It always lies between -1 and +1, inclusive. A value of +1 indicates a perfect positive linear relationship, -1 indicates a perfect negative linear relationship, and 0 indicates no linear relationship.
ব্যাখ্যা: সহসম্বন্ধ গুণাঙ্ক হলো দুটি চলকের মধ্যে রৈখিক সম্পর্কের একটি প্রমিত পরিমাপ। এটি সর্বদা -1 এবং +1-এর মধ্যে থাকে। +1 মান একটি নিখুঁত ধনাত্মক রৈখিক সম্পর্ক নির্দেশ করে, -1 একটি নিখুঁত ঋণাত্মক রৈখিক সম্পর্ক নির্দেশ করে, এবং 0 কোনো রৈখিক সম্পর্ক নেই বোঝায়।
22. If two random variables X and Y are independent, then Cov(X, Y) is: / যদি দুটি দৈব চলক X এবং Y স্বাধীন হয়, তবে Cov(X, Y) হবে:
Explanation: If X and Y are independent, then E(XY) = E(X)E(Y). The formula for covariance is Cov(X, Y) = E(XY) – E(X)E(Y). Therefore, for independent variables, Cov(X, Y) = 0. Note that the converse is not always true; zero covariance does not necessarily imply independence.
ব্যাখ্যা: যদি X এবং Y স্বাধীন হয়, তবে E(XY) = E(X)E(Y)। সহভেদাঙ্কের সূত্র হলো Cov(X, Y) = E(XY) – E(X)E(Y)। সুতরাং, স্বাধীন চলকের জন্য, Cov(X, Y) = 0। মনে রাখবেন, এর বিপরীতটি সর্বদা সত্য নয়; শূন্য সহভেদাঙ্ক মানেই স্বাধীনতা বোঝায় না।
23. The regression curve E(Y|x) represents the: / নির্ভরণ রেখা E(Y|x) কী উপস্থাপন করে?
Explanation: The conditional expectation E(Y|X=x) gives the expected (or average) value of the random variable Y, given that the random variable X has taken the specific value x. This function of x is called the regression curve of Y on X.
ব্যাখ্যা: শর্তাধীন প্রত্যাশা E(Y|X=x) দৈব চলক Y-এর প্রত্যাশিত (বা গড়) মান দেয়, যখন দৈব চলক X নির্দিষ্ট মান x গ্রহণ করেছে। x-এর এই ফাংশনটিকে Y-এর উপর X-এর নির্ভরণ রেখা বলা হয়।
24. The Law of Large Numbers states that the sample mean: / বৃহৎ সংখ্যার সূত্র (Law of Large Numbers) বলে যে নমুনা গড়:
Explanation: The Law of Large Numbers is a fundamental theorem of probability which states that as the size of a sample from a population increases, the sample mean gets closer and closer to the true population mean. It describes the stability of long-term results.
ব্যাখ্যা: বৃহৎ সংখ্যার সূত্র সম্ভাবনার একটি মৌলিক উপপাদ্য যা বলে যে একটি সমগ্রক থেকে নমুনার আকার বাড়ার সাথে সাথে নমুনা গড় প্রকৃত সমগ্রকের গড়ের কাছাকাছি চলে আসে। এটি দীর্ঘমেয়াদী ফলাফলের স্থিতিশীলতা বর্ণনা করে।
25. The Central Limit Theorem (CLT) is important because it states that the distribution of the sample mean is: / কেন্দ্রীয় সীমা উপপাদ্য (CLT) গুরুত্বপূর্ণ কারণ এটি বলে যে নমুনা গড়ের নিবেশনটি হলো:
Explanation: The Central Limit Theorem states that, for a sufficiently large sample size, the sampling distribution of the mean of any independent, random variable will be approximately normal, regardless of the underlying population’s distribution.
ব্যাখ্যা: কেন্দ্রীয় সীমা উপপাদ্য বলে যে, যথেষ্ট বড় নমুনার আকারের জন্য, যেকোনো স্বাধীন, দৈব চলকের গড়ের নমুনা নিবেশনটি প্রায় নর্মাল হবে, সমগ্রকের মূল নিবেশন যাই হোক না কেন।
26. The Poisson approximation to the Binomial distribution is appropriate when: / দ্বিপদ নিবেশনের পয়সন আসন্ন মান উপযুক্ত হয় যখন:
Explanation: The Poisson distribution can be used to approximate the Binomial distribution when the number of trials ‘n’ is large (typically n > 20) and the probability of success ‘p’ is small (typically p < 0.05), such that the mean λ = np is moderate.
ব্যাখ্যা: পয়সন নিবেশন দ্বিপদ নিবেশনের আসন্ন মান হিসাবে ব্যবহার করা যেতে পারে যখন চেষ্টার সংখ্যা ‘n’ বড় (সাধারণত n > 20) এবং সফলতার সম্ভাবনা ‘p’ ছোট (সাধারণত p < 0.05) হয়, যাতে গড় λ = np একটি পরিমিত মান হয়।
27. The Characteristic Function of a random variable X is defined by φ_X(t) = E[eitX], where ‘i’ is the imaginary unit. What is its main advantage over MGF? / একটি দৈব চলক X-এর বৈশিষ্ট্যমূলক অপেক্ষক φ_X(t) = E[eitX] দ্বারা সংজ্ঞায়িত, যেখানে ‘i’ হলো কাল্পনিক একক। MGF-এর তুলনায় এর প্রধান সুবিধা কী?
Explanation: The key advantage of the characteristic function over the moment-generating function is that it always exists for any random variable, because |eitx| = 1. The MGF may not exist for some distributions (like the Cauchy distribution).
ব্যাখ্যা: পরিঘাত উৎপাদক অপেক্ষকের তুলনায় বৈশিষ্ট্যমূলক অপেক্ষকের প্রধান সুবিধা হলো এটি যেকোনো দৈব চলকের জন্য সর্বদা বিদ্যমান থাকে, কারণ |eitx| = 1। কিছু নিবেশনের (যেমন কোশি নিবেশন) জন্য MGF বিদ্যমান নাও থাকতে পারে।
28. A joint probability distribution f(x, y) for two random variables X and Y must satisfy: / দুটি দৈব চলক X এবং Y-এর জন্য একটি যুগ্ম সম্ভাবনা নিবেশন f(x, y)-কে অবশ্যই সন্তুষ্ট করতে হবে:
Explanation: For a function to be a valid joint probability density function (PDF) for continuous variables, it must be non-negative (f(x, y) ≥ 0) and its integral over the entire xy-plane must be equal to 1. This ensures that the total probability is 1.
ব্যাখ্যা: একটি ফাংশনকে অবিচ্ছিন্ন চলকের জন্য একটি বৈধ যুগ্ম সম্ভাবনা ঘনত্ব অপেক্ষক (PDF) হতে হলে, এটিকে অবশ্যই অ-ঋণাত্মক (f(x, y) ≥ 0) হতে হবে এবং সম্পূর্ণ xy-তলের উপর এর ইন্টিগ্রাল 1-এর সমান হতে হবে। এটি নিশ্চিত করে যে মোট সম্ভাবনা 1।
29. The median of a distribution is the value ‘m’ such that: / একটি নিবেশনের মধ্যমা হলো সেই মান ‘m’ যা এমনভাবে থাকে:
Explanation: The median is the value that separates the higher half from the lower half of a data set or a probability distribution. For a continuous distribution, it’s the value ‘m’ for which the cumulative distribution function F(m) = 0.5, meaning P(X ≤ m) = 0.5.
ব্যাখ্যা: মধ্যমা হলো সেই মান যা একটি ডেটা সেট বা সম্ভাবনা নিবেশনের উচ্চার্ধকে নিম্নার্ধ থেকে পৃথক করে। একটি অবিচ্ছিন্ন নিবেশনের জন্য, এটি সেই মান ‘m’ যার জন্য ক্রমযোজিত নিবেশন অপেক্ষক F(m) = 0.5, অর্থাৎ P(X ≤ m) = 0.5।
30. Chebyshev’s inequality gives a bound on the probability that a random variable deviates from its: / চেবিশেভের অসমতা একটি দৈব চলকের তার কী থেকে বিচ্যুতির সম্ভাবনার উপর একটি সীমা দেয়?
Explanation: Chebyshev’s inequality, P(|X – μ| ≥ kσ) ≤ 1/k², provides a lower bound on the probability that a random variable X (with mean μ and finite variance σ²) will be within a certain distance from its mean. It’s a very general result that applies to any distribution.
ব্যাখ্যা: চেবিশেভের অসমতা, P(|X – μ| ≥ kσ) ≤ 1/k², একটি দৈব চলক X (গড় μ এবং সসীম ভেদাঙ্ক σ² সহ) তার গড় থেকে একটি নির্দিষ্ট দূরত্বের মধ্যে থাকার সম্ভাবনার উপর একটি নিম্ন সীমা প্রদান করে। এটি একটি অত্যন্ত সাধারণ ফলাফল যা যেকোনো নিবেশনের জন্য প্রযোজ্য।
31. Which distribution is memoryless? / কোন নিবেশন স্মৃতিহীন?
Explanation: The exponential distribution (and its discrete counterpart, the geometric distribution) is memoryless. This means P(X > s + t | X > s) = P(X > t). In practical terms, the probability of an event occurring in the future is independent of how much time has already passed.
ব্যাখ্যা: সূচকীয় নিবেশন (এবং এর বিচ্ছিন্ন প্রতিরূপ, জ্যামিতিক নিবেশন) স্মৃতিহীন। এর অর্থ P(X > s + t | X > s) = P(X > t)। ব্যবহারিক অর্থে, ভবিষ্যতে একটি ঘটনা ঘটার সম্ভাবনা ইতিমধ্যে কতটা সময় অতিবাহিত হয়েছে তার উপর নির্ভরশীল নয়।
32. The sum of two independent Poisson random variables is a: / দুটি স্বাধীন পয়সন দৈব চলকের যোগফল একটি:
Explanation: If X ~ Poisson(λ₁) and Y ~ Poisson(λ₂) are independent, then their sum Z = X + Y follows a Poisson distribution with parameter λ₁ + λ₂. This is an important additive property of the Poisson distribution.
ব্যাখ্যা: যদি X ~ Poisson(λ₁) এবং Y ~ Poisson(λ₂) স্বাধীন হয়, তবে তাদের যোগফল Z = X + Y একটি পয়সন নিবেশন অনুসরণ করে যার প্যারামিটার λ₁ + λ₂। এটি পয়সন নিবেশনের একটি গুরুত্বপূর্ণ যোজনীয় বৈশিষ্ট্য।
33. The relationship between the Probability Density Function (PDF) f(x) and the Cumulative Distribution Function (CDF) F(x) for a continuous random variable is: / একটি অবিচ্ছিন্ন দৈব চলকের জন্য সম্ভাবনা ঘনত্ব অপেক্ষক (PDF) f(x) এবং ক্রমযোজিত নিবেশন অপেক্ষক (CDF) F(x)-এর মধ্যে সম্পর্ক হলো:
Explanation: The PDF is the derivative of the CDF. Conversely, the CDF is the integral of the PDF from -∞ to x. So, f(x) = F'(x) = d/dx [F(x)].
ব্যাখ্যা: PDF হলো CDF-এর ডেরিভেটিভ। বিপরীতভাবে, CDF হলো -∞ থেকে x পর্যন্ত PDF-এর ইন্টিগ্রাল। সুতরাং, f(x) = F'(x) = d/dx [F(x)]।
34. A two-dimensional normal distribution is completely specified by: / একটি দ্বি-মাত্রিক নর্মাল নিবেশন সম্পূর্ণভাবে নির্দিষ্ট করা হয়:
Explanation: A bivariate or two-dimensional normal distribution is defined by five parameters: the mean of X (μ_x), the mean of Y (μ_y), the variance of X (σ_x²), the variance of Y (σ_y²), and the correlation coefficient between X and Y (ρ).
ব্যাখ্যা: একটি বাইভেরিয়েট বা দ্বি-মাত্রিক নর্মাল নিবেশন পাঁচটি প্যারামিটার দ্বারা সংজ্ঞায়িত হয়: X-এর গড় (μ_x), Y-এর গড় (μ_y), X-এর ভেদাঙ্ক (σ_x²), Y-এর ভেদাঙ্ক (σ_y²), এবং X ও Y-এর মধ্যে সহসম্বন্ধ গুণাঙ্ক (ρ)।
35. E(E(Y|X)) is equal to: / E(E(Y|X)) কিসের সমান?
Explanation: This is known as the Law of Total Expectation or the Tower Property. It states that the expected value of the conditional expected value of Y given X is the same as the overall expected value of Y. It’s a very useful property for breaking down complex expectation calculations.
ব্যাখ্যা: এটি মোট প্রত্যাশার সূত্র বা টাওয়ার প্রপার্টি হিসাবে পরিচিত। এটি বলে যে X-এর সাপেক্ষে Y-এর শর্তাধীন প্রত্যাশার প্রত্যাশিত মান Y-এর সামগ্রিক প্রত্যাশিত মানের সমান। জটিল প্রত্যাশা গণনার জন্য এটি একটি খুব দরকারী বৈশিষ্ট্য।
45. If M_X(t) is the MGF of X, then the MGF of Y = aX+b is: / যদি M_X(t) হয় X এর MGF, তাহলে Y = aX+b এর MGF হবে:
Explanation: M_Y(t) = E[etY] = E[et(aX+b)] = E[eatX + bt] = E[eatX * ebt] = ebt E[e(at)X] = ebt M_X(at).
ব্যাখ্যা: M_Y(t) = E[etY] = E[et(aX+b)] = E[eatX + bt] = E[eatX * ebt] = ebt E[e(at)X] = ebt M_X(at)।
46. The third central moment, μ₃ = E[(X – μ)³], is a measure of: / তৃতীয় কেন্দ্রীয় পরিঘাত, μ₃ = E[(X – μ)³], কিসের পরিমাপক?
Explanation: The third central moment is used to define skewness. The standardized skewness coefficient is γ₁ = μ₃ / σ³, which measures the asymmetry of the distribution.
ব্যাখ্যা: তৃতীয় কেন্দ্রীয় পরিঘাত বঙ্কিমতা সংজ্ঞায়িত করতে ব্যবহৃত হয়। প্রমিত বঙ্কিমতা গুণাঙ্ক হলো γ₁ = μ₃ / σ³, যা নিবেশনের অপ্রতিসাম্য পরিমাপ করে।
47. A continuous uniform distribution on the interval [a, b] has a variance of: / [a, b] ব্যবধানে একটি অবিচ্ছিন্ন সুষম নিবেশনের ভেদাঙ্ক হলো:
Explanation: For a continuous uniform distribution on [a, b], the mean is (a+b)/2 and the variance is (b-a)²/12. This is a standard result derived from the definition of variance for a continuous distribution.
ব্যাখ্যা: [a, b] ব্যবধানে একটি অবিচ্ছিন্ন সুষম নিবেশনের জন্য, গড় হলো (a+b)/2 এবং ভেদাঙ্ক হলো (b-a)²/12। এটি একটি অবিচ্ছিন্ন নিবেশনের জন্য ভেদাঙ্কের সংজ্ঞা থেকে প্রাপ্ত একটি প্রমিত ফলাফল।
48. The Chi-square distribution is: / কাই-স্কোয়ার (Chi-square) নিবেশনটি হলো:
Explanation: The Chi-square distribution is a special case of the Gamma distribution. It is defined for positive values only and is skewed to the right (positively skewed). As the degrees of freedom increase, it becomes more symmetric and approaches a normal distribution.
ব্যাখ্যা: কাই-স্কোয়ার নিবেশন গামা নিবেশনের একটি বিশেষ ক্ষেত্র। এটি কেবল ধনাত্মক মানের জন্য সংজ্ঞায়িত এবং ডানদিকে বঙ্কিম (ধনাত্মকভাবে বঙ্কিম)। স্বাধীনতার মাত্রা বাড়ার সাথে সাথে এটি আরও প্রতিসম হয়ে ওঠে এবং একটি নর্মাল নিবেশনের কাছাকাছি আসে।
49. Convergence in probability means that for any ε > 0: / সম্ভাবনায় অভিসারী হওয়ার অর্থ হলো যেকোনো ε > 0 এর জন্য:
Explanation: A sequence of random variables {X_n} converges in probability to a random variable X if the probability that their difference exceeds any positive value ε approaches zero as n goes to infinity. It’s a weaker form of convergence than almost sure convergence.
ব্যাখ্যা: দৈব চলকের একটি অনুক্রম {X_n} সম্ভাবনায় দৈব চলক X-এর দিকে অভিসারী হয় যদি তাদের পার্থক্যের মান যেকোনো ধনাত্মক মান ε-কে অতিক্রম করার সম্ভাবনা n অসীমের দিকে যাওয়ার সাথে সাথে শূন্যের কাছাকাছি আসে। এটি প্রায় নিশ্চিত অভিসরণের চেয়ে একটি দুর্বল ধরনের অভিসরণ।
50. If X follows a Normal distribution, what percentage of data lies within one standard deviation of the mean (μ ± σ)? / যদি X একটি নর্মাল নিবেশন অনুসরণ করে, তাহলে কত শতাংশ ডেটা গড়ের এক পরিমিত বিচ্যুতির (μ ± σ) মধ্যে থাকে?
Explanation: This is the empirical rule, also known as the 68-95-99.7 rule. For a normal distribution, approximately 68% of the data falls within one standard deviation of the mean, 95% within two, and 99.7% within three.
ব্যাখ্যা: এটি এম্পিরিকাল রুল বা ৬৮-৯৫-৯৯.৭ নিয়ম হিসাবে পরিচিত। একটি নর্মাল নিবেশনের জন্য, প্রায় ৬৮% ডেটা গড়ের এক পরিমিত বিচ্যুতির মধ্যে, ৯৫% দুই পরিমিত বিচ্যুতির মধ্যে, এবং ৯৯.৭% তিন পরিমিত বিচ্যুতির মধ্যে থাকে।
Section B: Mathematical Statistics
51. A random sample is a collection of random variables X₁, X₂, …, Xₙ that are: / একটি দৈব নমুনা হলো X₁, X₂, …, Xₙ দৈব চলকের একটি সংগ্রহ যা:
Explanation: The definition of a simple random sample from a population is that the observations are independent (the selection of one does not affect the others) and identically distributed (they are all drawn from the same population distribution).
ব্যাখ্যা: একটি সমগ্রক থেকে একটি সরল দৈব নমুনার সংজ্ঞা হলো পর্যবেক্ষণগুলি স্বাধীন (একটির নির্বাচন অন্যকে প্রভাবিত করে না) এবং সমভাবে নিবেশিত (তারা সবাই একই সমগ্রক নিবেশন থেকে নেওয়া হয়েছে)।
52. A numerical characteristic of a sample is called a: / একটি নমুনার সংখ্যাসূচক বৈশিষ্ট্যকে বলা হয়:
Explanation: A statistic is any function of the sample data. Examples include the sample mean, sample variance, and sample median. A parameter is a numerical characteristic of the population.
ব্যাখ্যা: একটি Statistic হলো নমুনা ডেটার যেকোনো অপেক্ষক। উদাহরণস্বরূপ, নমুনা গড়, নমুনা ভেদাঙ্ক, এবং নমুনা মধ্যমা। একটি প্যারামিটার হলো সমগ্রকের সংখ্যাসূচক বৈশিষ্ট্য।
53. An estimator is said to be unbiased if: / একটি மதிப்ப অনুমানকারীকে অপক্ষপাতদুষ্ট বলা হয় যদি:
Explanation: An estimator θ̂ for a parameter θ is unbiased if E(θ̂) = θ. This means that, on average, the estimator will give the correct value of the parameter. It doesn’t systematically overestimate or underestimate it.
ব্যাখ্যা: একটি প্যারামিটার θ-এর জন্য একটি மதிப்ப অনুমানকারী θ̂ অপক্ষপাতদুষ্ট হয় যদি E(θ̂) = θ হয়। এর মানে হলো, গড়ে, மதிப்ப অনুমানকারী প্যারামিটারের সঠিক মান দেবে। এটি পদ্ধতিগতভাবে অতিরিক্ত বা কম মূল্যায়ন করে না।
54. Why is the denominator of the sample variance formula (n-1) instead of n? / নমুনা ভেদাঙ্কের সূত্রের হরে n-এর পরিবর্তে (n-1) কেন থাকে?
Explanation: If we were to divide by ‘n’, the resulting sample variance would systematically underestimate the true population variance. Dividing by (n-1), known as Bessel’s correction, corrects for this bias, making E(s²) = σ².
ব্যাখ্যা: যদি আমরা ‘n’ দিয়ে ভাগ করতাম, তাহলে প্রাপ্ত নমুনা ভেদাঙ্ক পদ্ধতিগতভাবে প্রকৃত সমগ্রকের ভেদাঙ্ককে কম মূল্যায়ন করত। (n-1) দিয়ে ভাগ করা, যা বেসেলের সংশোধন নামে পরিচিত, এই পক্ষপাত সংশোধন করে, যার ফলে E(s²) = σ² হয়।
55. A scatter diagram is used to visualize: / একটি বিক্ষেপ চিত্র কী দেখতে ব্যবহৃত হয়?
Explanation: A scatter diagram (or scatter plot) is a graphical tool that plots pairs of numerical data, with one variable on each axis, to look for a relationship between them. The pattern of the plotted points can suggest correlation (positive, negative, or none).
ব্যাখ্যা: একটি বিক্ষেপ চিত্র (বা স্ক্যাটার প্লট) একটি গ্রাফিকাল টুল যা সংখ্যাসূচক ডেটার জোড়া প্লট করে, প্রতিটি অক্ষে একটি চলক রেখে, তাদের মধ্যে সম্পর্ক খোঁজার জন্য। প্লট করা বিন্দুগুলির প্যাটার্ন সহসম্বন্ধ (ধনাত্মক, ঋণাত্মক, বা কোনোটিই নয়) নির্দেশ করতে পারে।
56. The principle of least squares in regression analysis minimizes: / নির্ভরণ বিশ্লেষণে ন্যূনতম বর্গ পদ্ধতি কী সর্বনিম্ন করে?
Explanation: The method of least squares finds the “best-fit” line (or curve) for a set of data by minimizing the sum of the squares of the residuals. A residual is the difference between an observed value and the value predicted by the regression model.
ব্যাখ্যা: ন্যূনতম বর্গ পদ্ধতি একটি ডেটা সেটের জন্য “সেরা-ফিট” রেখা (বা বক্ররেখা) খুঁজে বের করে, যা অবশিষ্টগুলির বর্গের যোগফলকে সর্বনিম্ন করে। একটি অবশিষ্ট হলো একটি পর্যবেক্ষণ করা মান এবং নির্ভরণ মডেল দ্বারা ভবিষ্যদ্বাণী করা মানের মধ্যে পার্থক্য।
57. The Method of Maximum Likelihood (MLE) finds the parameter value that: / সর্বোচ্চ সম্ভাবনা পদ্ধতি (MLE) সেই প্যারামিটারের মান খুঁজে বের করে যা:
Explanation: The core idea of MLE is to treat the observed data as fixed and find the value of the model’s parameter(s) that makes the observed data most probable. It maximizes the likelihood function L(θ|data).
ব্যাখ্যা: MLE-এর মূল ধারণা হলো পর্যবেক্ষণ করা ডেটাকে স্থির ধরে মডেলের প্যারামিটারের সেই মান খুঁজে বের করা যা পর্যবেক্ষণ করা ডেটাকে সবচেয়ে সম্ভাব্য করে তোলে। এটি likelihood function L(θ|data)-কে সর্বোচ্চ করে।
58. The maximum likelihood estimator (MLE) for the mean (μ) of a normal distribution is: / একটি নর্মাল নিবেশনের গড় (μ)-এর জন্য সর্বোচ্চ সম্ভাবনা மதிப்ப অনুমানকারী (MLE) হলো:
Explanation: By writing down the likelihood function for a sample from a normal distribution and differentiating it with respect to μ, we find that the value of μ that maximizes the likelihood is the sample mean, x̄.
ব্যাখ্যা: একটি নর্মাল নিবেশন থেকে একটি নমুনার জন্য likelihood function লিখে এবং μ-এর সাপেক্ষে এটি ডেরিভেটিভ করে, আমরা দেখতে পাই যে μ-এর যে মান likelihood-কে সর্বোচ্চ করে তা হলো নমুনা গড়, x̄।
59. A 95% confidence interval for a parameter means: / একটি প্যারামিটারের জন্য একটি 95% আস্থা ব্যবধান (confidence interval) মানে:
Explanation: This is the correct frequentist interpretation of a confidence interval. The interval itself is random (it changes with each sample), while the parameter is fixed. The “confidence” is in the method, not in any single interval. Option A is a common misconception.
ব্যাখ্যা: এটি একটি আস্থা ব্যবধানের সঠিক ফ্রিকোয়েন্টিস্ট ব্যাখ্যা। ব্যবধানটি নিজেই দৈব (এটি প্রতিটি নমুনার সাথে পরিবর্তিত হয়), যেখানে প্যারামিটারটি স্থির। “আস্থা” পদ্ধতিতে থাকে, কোনো একক ব্যবধানে নয়। বিকল্প A একটি সাধারণ ভুল ধারণা।
60. To construct a confidence interval for the population mean when the population variance is unknown and the sample size is small, we use the: / সমগ্রকের ভেদাঙ্ক অজানা এবং নমুনার আকার ছোট হলে সমগ্রকের গড়ের জন্য আস্থা ব্যবধান তৈরি করতে আমরা ব্যবহার করি:
Explanation: When the population standard deviation (σ) is unknown, we must estimate it using the sample standard deviation (s). This introduces extra uncertainty, especially for small samples. The t-distribution, which is wider than the normal distribution, accounts for this extra uncertainty.
ব্যাখ্যা: যখন সমগ্রকের পরিমিত বিচ্যুতি (σ) অজানা থাকে, তখন আমাদের নমুনা পরিমিত বিচ্যুতি (s) ব্যবহার করে এটি অনুমান করতে হয়। এটি অতিরিক্ত অনিশ্চয়তা নিয়ে আসে, বিশেষ করে ছোট নমুনার জন্য। টি-নিবেশন, যা নর্মাল নিবেশনের চেয়ে প্রশস্ত, এই অতিরিক্ত অনিশ্চয়তার হিসাব রাখে।
61. A statistical hypothesis that specifies the parameter value completely is called a: / একটি পরিসংখ্যানগত প্রকল্পনা যা প্যারামিটারের মান সম্পূর্ণরূপে নির্দিষ্ট করে, তাকে বলা হয়:
Explanation: A simple hypothesis is one that completely specifies the distribution of the population. For example, H₀: μ = 10 is a simple hypothesis if the population is normal with known variance. A composite hypothesis, like H₁: μ > 10, specifies a range of values.
ব্যাখ্যা: একটি সরল প্রকল্পনা হলো যা সমগ্রকের নিবেশনকে সম্পূর্ণরূপে নির্দিষ্ট করে। উদাহরণস্বরূপ, H₀: μ = 10 একটি সরল প্রকল্পনা যদি সমগ্রকটি নর্মাল এবং এর ভেদাঙ্ক জানা থাকে। একটি যৌগিক প্রকল্পনা, যেমন H₁: μ > 10, একটি মানের পরিসর নির্দিষ্ট করে।
62. In hypothesis testing, a Type I error is: / প্রকল্পনা পরীক্ষায়, একটি টাইপ I ত্রুটি হলো:
Explanation: A Type I error, denoted by α (alpha), is the mistake of rejecting the null hypothesis (H₀) when it is actually true. It is also known as a “false positive”. The significance level of a test is the probability of making a Type I error.
ব্যাখ্যা: একটি টাইপ I ত্রুটি, যা α (আলফা) দ্বারা চিহ্নিত, হলো নাস্তিকল্পনা (H₀) সত্য হওয়া সত্ত্বেও তা বাতিল করার ভুল। এটি “ফলস পজিটিভ” হিসাবেও পরিচিত। একটি পরীক্ষার তাৎপর্য স্তর হলো টাইপ I ত্রুটি করার সম্ভাবনা।
63. The power of a statistical test is the probability of: / একটি পরিসংখ্যানগত পরীক্ষার শক্তি (power) হলো কিসের সম্ভাবনা?
Explanation: The power of a test is its ability to detect an effect if one is present. It is defined as 1 – β, where β is the probability of a Type II error (failing to reject a false H₀). High power is a desirable property of a statistical test.
ব্যাখ্যা: একটি পরীক্ষার শক্তি হলো একটি প্রভাব উপস্থিত থাকলে তা শনাক্ত করার ক্ষমতা। এটি 1 – β হিসাবে সংজ্ঞায়িত, যেখানে β হলো টাইপ II ত্রুটি (একটি মিথ্যা H₀ বাতিল করতে ব্যর্থ হওয়া) করার সম্ভাবনা। উচ্চ শক্তি একটি পরিসংখ্যানগত পরীক্ষার একটি আকাঙ্ক্ষিত বৈশিষ্ট্য।
64. The Neyman-Pearson Lemma is used to find the: / নেইম্যান-পিয়ারসন লেমা কী খুঁজে বের করতে ব্যবহৃত হয়?
Explanation: The Neyman-Pearson Lemma provides a method for finding the Most Powerful Test (MPT) when testing a simple null hypothesis (H₀: θ = θ₀) against a simple alternative hypothesis (H₁: θ = θ₁). It states that the likelihood ratio test is the MPT.
ব্যাখ্যা: নেইম্যান-পিয়ারসন লেমা একটি সরল নাস্তিকল্পনা (H₀: θ = θ₀)-কে একটি সরল বিকল্প প্রকল্পনা (H₁: θ = θ₁)-এর বিরুদ্ধে পরীক্ষা করার সময় সবচেয়ে শক্তিশালী পরীক্ষা (MPT) খুঁজে বের করার একটি পদ্ধতি প্রদান করে। এটি বলে যে সম্ভাবনা অনুপাত পরীক্ষাটি হলো MPT।
65. A Likelihood Ratio Test (LRT) is based on the ratio of: / একটি সম্ভাবনা অনুপাত পরীক্ষা (LRT) কিসের অনুপাতের উপর ভিত্তি করে?
Explanation: The likelihood-ratio test statistic is λ = sup{L(θ|x) : θ ∈ Θ₀} / sup{L(θ|x) : θ ∈ Θ}, where Θ₀ is the parameter space under the null hypothesis and Θ is the entire parameter space. Small values of λ provide evidence against the null hypothesis.
ব্যাখ্যা: সম্ভাবনা-অনুপাত পরীক্ষার পরিসংখ্যানটি হলো λ = sup{L(θ|x) : θ ∈ Θ₀} / sup{L(θ|x) : θ ∈ Θ}, যেখানে Θ₀ হলো নাস্তিকল্পনার অধীনে প্যারামিটার স্থান এবং Θ হলো সম্পূর্ণ প্যারামিটার স্থান। λ-এর ছোট মান নাস্তিকল্পনার বিরুদ্ধে প্রমাণ দেয়।
66. An estimator is said to be consistent if it: / একটি மதிப்ப অনুমানকারীকে সঙ্গতিপূর্ণ বলা হয় যদি এটি:
Explanation: Consistency is a large-sample property. It means that as you collect more and more data (n → ∞), the estimator gets closer and closer to the true value of the parameter it is estimating.
ব্যাখ্যা: সঙ্গতিপূর্ণতা একটি বড়-নমুনার বৈশিষ্ট্য। এর মানে হলো আপনি যত বেশি ডেটা সংগ্রহ করবেন (n → ∞), மதிப்ப অনুমানকারীটি তার অনুমেয় প্যারামিটারের প্রকৃত মানের তত কাছাকাছি চলে আসবে।
67. The sampling distribution of a statistic is: / একটি পরিসংখ্যানের নমুনা নিবেশন হলো:
Explanation: A sampling distribution describes the distribution of a statistic (like the sample mean) over repeated sampling. It’s a theoretical distribution that shows how the statistic would vary if we took many samples of the same size from the same population.
ব্যাখ্যা: একটি নমুনা নিবেশন পুনরাবৃত্ত নমুনার উপর একটি পরিসংখ্যানের (যেমন নমুনা গড়) নিবেশন বর্ণনা করে। এটি একটি তাত্ত্বিক নিবেশন যা দেখায় যে আমরা যদি একই সমগ্রক থেকে একই আকারের অনেক নমুনা নিই তবে পরিসংখ্যানটি কীভাবে পরিবর্তিত হবে।
68. The maximum likelihood estimator (MLE) for the parameter ‘p’ of a Binomial distribution B(n, p) is: / একটি দ্বিপদ নিবেশন B(n, p)-এর প্যারামিটার ‘p’-এর জন্য সর্বোচ্চ সম্ভাবনা மதிப்ப অনুমানকারী (MLE) হলো:
Explanation: The likelihood function for a Binomial distribution is L(p|x) = C(n,x) * p^x * (1-p)^(n-x). Maximizing this function with respect to ‘p’ (by taking the derivative and setting it to zero) yields the estimator p̂ = x/n, which is the sample proportion of successes.
ব্যাখ্যা: একটি দ্বিপদ নিবেশনের জন্য likelihood function হলো L(p|x) = C(n,x) * p^x * (1-p)^(n-x)। ‘p’-এর সাপেক্ষে এই ফাংশনটিকে সর্বোচ্চ করলে (ডেরিভেটিভ নিয়ে এবং এটিকে শূন্যের সমান সেট করে) மதிப்ப অনুমানকারী p̂ = x/n পাওয়া যায়, যা সফলতার নমুনা অনুপাত।
69. The degrees of freedom for a t-test of a single population mean are: / একটি একক সমগ্রকের গড়ের জন্য টি-টেস্টের স্বাধীনতার মাত্রা হলো:
Explanation: When estimating the population mean using the t-distribution, we also have to estimate the population standard deviation using the sample standard deviation. This use of one estimated parameter (the sample mean to calculate the sample SD) “costs” one degree of freedom. Thus, df = n-1.
ব্যাখ্যা: টি-নিবেশন ব্যবহার করে সমগ্রকের গড় অনুমান করার সময়, আমাদের নমুনা পরিমিত বিচ্যুতি ব্যবহার করে সমগ্রকের পরিমিত বিচ্যুতিও অনুমান করতে হয়। এই একটি অনুমিত প্যারামিটারের ব্যবহার (নমুনা SD গণনা করার জন্য নমুনা গড়) একটি স্বাধীনতার মাত্রা “খরচ” করে। সুতরাং, df = n-1।
70. An F-distribution is the ratio of two: / একটি এফ-নিবেশন হলো দুটি কীসের অনুপাত?
Explanation: If U ~ χ²(ν₁) and V ~ χ²(ν₂) are independent Chi-square random variables with ν₁ and ν₂ degrees of freedom respectively, then the random variable F = (U/ν₁) / (V/ν₂) follows an F-distribution with ν₁ and ν₂ degrees of freedom. It is commonly used to test the equality of variances of two normal populations.
ব্যাখ্যা: যদি U ~ χ²(ν₁) এবং V ~ χ²(ν₂) যথাক্রমে ν₁ এবং ν₂ স্বাধীনতার মাত্রা সহ দুটি স্বাধীন কাই-স্কোয়ার দৈব চলক হয়, তবে দৈব চলক F = (U/ν₁) / (V/ν₂) ν₁ এবং ν₂ স্বাধীনতার মাত্রা সহ একটি এফ-নিবেশন অনুসরণ করে। এটি সাধারণত দুটি নর্মাল সমগ্রকের ভেদাঙ্কের সমতা পরীক্ষা করতে ব্যবহৃত হয়।
71. Widening a confidence interval, while keeping other factors constant, will: / অন্যান্য বিষয় অপরিবর্তিত রেখে একটি আস্থা ব্যবধান প্রশস্ত করলে তা:
Explanation: A wider interval means we are casting a “wider net” to capture the true parameter. This makes us more confident that the interval contains the true parameter. For example, a 99% confidence interval is always wider than a 95% confidence interval for the same data.
ব্যাখ্যা: একটি প্রশস্ত ব্যবধান মানে আমরা প্রকৃত প্যারামিটারকে ধরার জন্য একটি “প্রশস্ত জাল” ফেলছি। এটি আমাদের আরও আত্মবিশ্বাসী করে তোলে যে ব্যবধানটি প্রকৃত প্যারামিটারকে ধারণ করে। উদাহরণস্বরূপ, একই ডেটার জন্য একটি 99% আস্থা ব্যবধান সর্বদা একটি 95% আস্থা ব্যবধানের চেয়ে প্রশস্ত হয়।
72. A p-value in hypothesis testing represents: / প্রকল্পনা পরীক্ষায় একটি পি-মান (p-value) কী উপস্থাপন করে?
Explanation: The p-value is a measure of the strength of evidence against the null hypothesis. A small p-value (typically ≤ 0.05) indicates that the observed data is unlikely under the null hypothesis, leading us to reject H₀.
ব্যাখ্যা: পি-মান হলো নাস্তিকল্পনার বিরুদ্ধে প্রমাণের শক্তির একটি পরিমাপ। একটি ছোট পি-মান (সাধারণত ≤ 0.05) নির্দেশ করে যে পর্যবেক্ষণ করা ডেটা নাস্তিকল্পনার অধীনে অসম্ভাব্য, যা আমাদের H₀ বাতিল করতে পরিচালিত করে।
73. A sufficient statistic for a parameter θ is a statistic that: / একটি প্যারামিটার θ-এর জন্য একটি পর্যাপ্ত পরিসংখ্যান হলো এমন একটি পরিসংখ্যান যা:
Explanation: A statistic T(X) is sufficient for θ if the conditional distribution of the sample X given the value of T(X) does not depend on θ. Intuitively, this means that once you know the value of the sufficient statistic, the original data provides no further information about θ.
ব্যাখ্যা: একটি পরিসংখ্যান T(X) θ-এর জন্য পর্যাপ্ত হয় যদি T(X)-এর মানের সাপেক্ষে নমুনা X-এর শর্তাধীন নিবেশন θ-এর উপর নির্ভর না করে। সহজভাবে, এর মানে হলো একবার আপনি পর্যাপ্ত পরিসংখ্যানের মান জানলে, মূল ডেটা θ সম্পর্কে আর কোনো অতিরিক্ত তথ্য দেয় না।
74. The Cramer-Rao Lower Bound provides a lower limit for the: / ক্রেমার-রাও নিম্ন সীমা কিসের জন্য একটি নিম্ন সীমা প্রদান করে?
Explanation: The Cramer-Rao Lower Bound (CRLB) gives a theoretical minimum possible variance for any unbiased estimator of a parameter. An estimator that achieves this lower bound is called an efficient estimator.
ব্যাখ্যা: ক্রেমার-রাও নিম্ন সীমা (CRLB) একটি প্যারামিটারের যেকোনো অপক্ষপাতদুষ্ট மதிப்ப অনুমানকারীর জন্য একটি তাত্ত্বিক সম্ভাব্য সর্বনিম্ন ভেদাঙ্ক দেয়। যে மதிப்ப অনুমানকারী এই নিম্ন সীমা অর্জন করে তাকে একটি দক্ষ மதிப்ப অনুমানকারী বলা হয়।
75. In regression, the coefficient of determination (R²) measures: / নির্ভরণে, নির্ধারণ গুণাঙ্ক (R²) কী পরিমাপ করে?
Explanation: R-squared is a statistical measure that represents the proportion of the variance for a dependent variable that’s explained by an independent variable or variables in a regression model. It ranges from 0 to 1.
ব্যাখ্যা: আর-স্কোয়ার্ড একটি পরিসংখ্যানগত পরিমাপ যা একটি নির্ভরণ মডেলে একটি নির্ভরশীল চলকের ভেদাঙ্কের সেই অনুপাতকে উপস্থাপন করে যা এক বা একাধিক স্বাধীন চলক দ্বারা ব্যাখ্যা করা হয়। এর পরিসর 0 থেকে 1।
76. A consistent estimator is: / একটি সঙ্গতিপূর্ণ மதிப்ப অনুমানকারী হলো:
Explanation: Consistency and unbiasedness are different properties. An estimator can be consistent but biased (e.g., the MLE of variance for a normal distribution), or unbiased but not consistent. However, many common estimators (like the sample mean) are both.
ব্যাখ্যা: সঙ্গতিপূর্ণতা এবং অপক্ষপাতদুষ্টতা ভিন্ন বৈশিষ্ট্য। একটি மதிப்ப অনুমানকারী সঙ্গতিপূর্ণ কিন্তু পক্ষপাতদুষ্ট হতে পারে (যেমন, একটি নর্মাল নিবেশনের ভেদাঙ্কের MLE), অথবা অপক্ষপাতদুষ্ট কিন্তু সঙ্গতিপূর্ণ নয়। তবে, অনেক সাধারণ மதிப்ப অনুমানকারী (যেমন নমুনা গড়) উভয়ই হয়।
77. The distribution of the sample variance (s²) from a normal population, when appropriately scaled, follows a: / একটি নর্মাল সমগ্রক থেকে নমুনা ভেদাঙ্ক (s²)-এর নিবেশন, সঠিকভাবে স্কেল করা হলে, একটি কী অনুসরণ করে?
Explanation: The statistic (n-1)s² / σ² follows a Chi-square distribution with (n-1) degrees of freedom. This result is fundamental for making inferences (confidence intervals and hypothesis tests) about the population variance σ².
ব্যাখ্যা: (n-1)s² / σ² পরিসংখ্যানটি (n-1) স্বাধীনতার মাত্রা সহ একটি কাই-স্কোয়ার নিবেশন অনুসরণ করে। এই ফলাফলটি সমগ্রকের ভেদাঙ্ক σ² সম্পর্কে অনুমান (আস্থা ব্যবধান এবং প্রকল্পনা পরীক্ষা) করার জন্য মৌলিক।
78. The significance level (α) of a test is the probability of: / একটি পরীক্ষার তাৎপর্য স্তর (α) হলো কিসের সম্ভাবনা?
Explanation: The significance level, denoted by α, is the pre-specified probability of committing a Type I error. It is the threshold against which the p-value is compared. If p-value ≤ α, we reject the null hypothesis.
ব্যাখ্যা: তাৎপর্য স্তর, α দ্বারা চিহ্নিত, হলো একটি টাইপ I ত্রুটি করার পূর্ব-নির্দিষ্ট সম্ভাবনা। এটি সেই প্রান্তিক মান যার সাথে পি-মান তুলনা করা হয়। যদি পি-মান ≤ α হয়, আমরা নাস্তিকল্পনা বাতিল করি।
79. Which method is generally applicable for finding estimators and can be used for both simple and composite hypotheses in testing? / কোন পদ্ধতিটি সাধারণত மதிப்ப অনুমানকারী খুঁজে বের করার জন্য প্রযোজ্য এবং পরীক্ষা করার ক্ষেত্রে সরল ও যৌগিক উভয় প্রকল্পনার জন্য ব্যবহার করা যেতে পারে?
Explanation: The Method of Maximum Likelihood is a very general and powerful method for parameter estimation. The Likelihood Ratio Test, which is derived from MLE principles, is also a very general method for hypothesis testing that works for both simple and composite hypotheses.
ব্যাখ্যা: সর্বোচ্চ সম্ভাবনা পদ্ধতি প্যারামিটার অনুমানের জন্য একটি খুব সাধারণ এবং শক্তিশালী পদ্ধতি। সম্ভাবনা অনুপাত পরীক্ষা, যা MLE নীতি থেকে উদ্ভূত, প্রকল্পনা পরীক্ষার জন্য একটি খুব সাধারণ পদ্ধতি যা সরল এবং যৌগিক উভয় প্রকল্পনার জন্য কাজ করে।
80. If the confidence interval for the difference between two means (μ₁ – μ₂) contains zero, what can we conclude? / যদি দুটি গড়ের (μ₁ – μ₂) পার্থক্যের জন্য আস্থা ব্যবধান শূন্যকে ধারণ করে, আমরা কী উপসংহারে আসতে পারি?
Explanation: A confidence interval containing zero suggests that a difference of zero is a plausible value for the true difference between the population means. This is equivalent to failing to reject the null hypothesis H₀: μ₁ = μ₂ in a two-sided test at the corresponding significance level.
ব্যাখ্যা: শূন্যকে ধারণকারী একটি আস্থা ব্যবধান নির্দেশ করে যে শূন্যের পার্থক্য সমগ্রকের গড়গুলির মধ্যে প্রকৃত পার্থক্যের জন্য একটি সম্ভাব্য মান। এটি সংশ্লিষ্ট তাৎপর্য স্তরে একটি দ্বি-পার্শ্বিক পরীক্ষায় নাস্তিকল্পনা H₀: μ₁ = μ₂ বাতিল করতে ব্যর্থ হওয়ার সমতুল্য।
81. The sample correlation coefficient ‘r’ is an estimate of the population correlation coefficient: / নমুনা সহসম্বন্ধ গুণাঙ্ক ‘r’ হলো সমগ্রকের সহসম্বন্ধ গুণাঙ্কের একটি অনুমান:
Explanation: In statistics, it is conventional to use Roman letters for sample statistics (like r for sample correlation, x̄ for sample mean) and Greek letters for population parameters (like ρ (rho) for population correlation, μ (mu) for population mean).
ব্যাখ্যা: পরিসংখ্যানে, নমুনা পরিসংখ্যানের জন্য রোমান অক্ষর (যেমন নমুনা সহসম্বন্ধের জন্য r, নমুনা গড়ের জন্য x̄) এবং সমগ্রকের প্যারামিটারের জন্য গ্রিক অক্ষর (যেমন সমগ্রকের সহসম্বন্ধের জন্য ρ (রো), সমগ্রকের গড়ের জন্য μ (মিউ)) ব্যবহার করা প্রচলিত।
82. Which of the following is a graphical representation for grouped data? / নিচের কোনটি দলবদ্ধ ডেটার জন্য একটি গ্রাফিকাল উপস্থাপনা?
Explanation: A histogram is used to represent the distribution of numerical data that has been grouped into continuous intervals (bins). The height of each bar represents the frequency or relative frequency of data in that interval.
ব্যাখ্যা: একটি হিস্টোগ্রাম সংখ্যাসূচক ডেটার নিবেশন উপস্থাপন করতে ব্যবহৃত হয় যা অবিচ্ছিন্ন ব্যবধানে (বিন) দলবদ্ধ করা হয়েছে। প্রতিটি বারের উচ্চতা সেই ব্যবধানে ডেটার পৌনঃপুন্য বা আপেক্ষিক পৌনঃপুন্য উপস্থাপন করে।
83. The main purpose of grouping data is to: / ডেটা দলবদ্ধ করার মূল উদ্দেশ্য হলো:
Explanation: When dealing with a large amount of raw data, it can be difficult to see the underlying distribution or trends. Grouping data into a frequency distribution (and then visualizing it with a histogram) helps to summarize the information and make it easier to interpret.
ব্যাখ্যা: যখন প্রচুর পরিমাণে কাঁচা ডেটা নিয়ে কাজ করা হয়, তখন অন্তর্নিহিত নিবেশন বা প্রবণতা দেখা কঠিন হতে পারে। ডেটাকে একটি পৌনঃপুন্য নিবেশনে দলবদ্ধ করা (এবং তারপর হিস্টোগ্রাম দিয়ে এটি কল্পনা করা) তথ্য সংক্ষিপ্ত করতে এবং এটি ব্যাখ্যা করা সহজ করতে সহায়তা করে।
84. The maximum likelihood estimator of the variance (σ²) of a normal population is: / একটি নর্মাল সমগ্রকের ভেদাঙ্ক (σ²)-এর সর্বোচ্চ সম্ভাবনা மதிப்ப অনুমানকারী হলো:
Explanation: While the unbiased estimator for σ² is the sample variance s² (with denominator n-1), the maximum likelihood estimator (MLE) for σ² is found by maximizing the likelihood function, which results in the formula with a denominator of n. This MLE is slightly biased.
ব্যাখ্যা: যদিও σ²-এর জন্য অপক্ষপাতদুষ্ট மதிப்ப অনুমানকারী হলো নমুনা ভেদাঙ্ক s² (হর n-1 সহ), σ²-এর জন্য সর্বোচ্চ সম্ভাবনা மதிப்ப অনুমানকারী (MLE) likelihood function-কে সর্বোচ্চ করে পাওয়া যায়, যার ফলে n হরের সূত্রটি আসে। এই MLE সামান্য পক্ষপাতদুষ্ট।
85. A test is called uniformly most powerful (UMP) if it is: / একটি পরীক্ষাকে অভিন্নভাবে সবচেয়ে শক্তিশালী (UMP) বলা হয় যদি এটি:
Explanation: A UMP test is the “best” possible test for a given significance level α when dealing with a composite alternative hypothesis. It maximizes the power (1-β) for every value of the parameter specified by the alternative hypothesis.
ব্যাখ্যা: একটি UMP পরীক্ষা একটি যৌগিক বিকল্প প্রকল্পনা নিয়ে কাজ করার সময় একটি নির্দিষ্ট তাৎপর্য স্তর α-এর জন্য সম্ভাব্য “সেরা” পরীক্ষা। এটি বিকল্প প্রকল্পনা দ্বারা নির্দিষ্ট প্যারামিটারের প্রতিটি মানের জন্য শক্তি (1-β) সর্বোচ্চ করে।
86. The shape of the t-distribution depends on: / টি-নিবেশনের আকৃতি কিসের উপর নির্ভর করে?
Explanation: The t-distribution is a family of distributions. The specific shape of a particular t-distribution is determined by its degrees of freedom (df). As df increases, the t-distribution approaches the standard normal distribution.
ব্যাখ্যা: টি-নিবেশন হলো নিবেশনের একটি পরিবার। একটি নির্দিষ্ট টি-নিবেশনের নির্দিষ্ট আকৃতি তার স্বাধীনতার মাত্রা (df) দ্বারা নির্ধারিত হয়। df বাড়ার সাথে সাথে টি-নিবেশন স্ট্যান্ডার্ড নর্মাল নিবেশনের কাছাকাছি চলে আসে।
87. A Type II error is: / একটি টাইপ II ত্রুটি হলো:
Explanation: A Type II error, denoted by β (beta), is the mistake of failing to reject the null hypothesis when it is actually false. This is also known as a “false negative”.
ব্যাখ্যা: একটি টাইপ II ত্রুটি, β (বিটা) দ্বারা চিহ্নিত, হলো নাস্তিকল্পনা মিথ্যা হওয়া সত্ত্বেও তা বাতিল করতে ব্যর্থ হওয়ার ভুল। এটি “ফলস নেগেটিভ” হিসাবেও পরিচিত।
88. An approximate confidence interval for the parameter ‘p’ of a binomial population is often based on the: / একটি দ্বিপদ সমগ্রকের প্যারামিটার ‘p’-এর জন্য একটি আসন্ন আস্থা ব্যবধান প্রায়শই কিসের উপর ভিত্তি করে?
Explanation: When the sample size ‘n’ is large enough (typically when np ≥ 5 and n(1-p) ≥ 5), the distribution of the sample proportion p̂ can be approximated by a normal distribution. This allows for the construction of a simple Z-interval for the population proportion p.
ব্যাখ্যা: যখন নমুনার আকার ‘n’ যথেষ্ট বড় হয় (সাধারণত যখন np ≥ 5 এবং n(1-p) ≥ 5), তখন নমুনা অনুপাত p̂-এর নিবেশনকে একটি নর্মাল নিবেশন দ্বারা আসন্ন মান করা যেতে পারে। এটি সমগ্রকের অনুপাত p-এর জন্য একটি সরল Z-ব্যবধান তৈরি করার অনুমতি দেয়।
89. A test of H₀: μ = 100 vs H₁: μ ≠ 100 is a: / H₀: μ = 100 বনাম H₁: μ ≠ 100-এর একটি পরীক্ষা হলো:
Explanation: Because the alternative hypothesis (H₁) allows for the parameter to be either greater than or less than the value specified in the null hypothesis, it is a two-tailed (or two-sided) test. The critical region is split between both tails of the distribution.
ব্যাখ্যা: কারণ বিকল্প প্রকল্পনা (H₁) প্যারামিটারকে নাস্তিকল্পনায় নির্দিষ্ট মানের চেয়ে বড় বা ছোট উভয়ই হওয়ার অনুমতি দেয়, এটি একটি দ্বি-পার্শ্বিক (বা দুই-পার্শ্বিক) পরীক্ষা। সংকটপূর্ণ অঞ্চলটি নিবেশনের উভয় লেজের মধ্যে বিভক্ত থাকে।
90. The F-statistic in ANOVA (Analysis of Variance) is used to compare: / ANOVA (ভেদাঙ্ক বিশ্লেষণ)-তে এফ-পরিসংখ্যান কী তুলনা করতে ব্যবহৃত হয়?
Explanation: ANOVA uses the F-test to determine whether there is a statistically significant difference between the means of two or more independent groups. It does this by comparing the variance between the groups to the variance within the groups.
ব্যাখ্যা: ANOVA এফ-পরীক্ষা ব্যবহার করে নির্ধারণ করে যে দুই বা ততোধিক স্বাধীন দলের গড়ের মধ্যে কোনো পরিসংখ্যানগতভাবে তাৎপর্যপূর্ণ পার্থক্য আছে কিনা। এটি দলগুলির মধ্যে ভেদাঙ্ককে দলগুলির ভেতরের ভেদাঙ্কের সাথে তুলনা করে এটি করে।
91. If a likelihood ratio test statistic λ is very small (close to 0), it provides evidence: / যদি একটি সম্ভাবনা অনুপাত পরীক্ষার পরিসংখ্যান λ খুব ছোট হয় (0-এর কাছাকাছি), এটি কীসের প্রমাণ দেয়?
Explanation: The LRT statistic λ compares the maximum likelihood under H₀ to the maximum likelihood under the full parameter space. A small ratio means the likelihood under H₀ is much smaller than the overall maximum likelihood, suggesting the data is much less likely under H₀, thus providing evidence against it.
ব্যাখ্যা: LRT পরিসংখ্যান λ H₀-এর অধীনে সর্বোচ্চ সম্ভাবনাকে সম্পূর্ণ প্যারামিটার স্থানের অধীনে সর্বোচ্চ সম্ভাবনার সাথে তুলনা করে। একটি ছোট অনুপাত মানে H₀-এর অধীনে সম্ভাবনা সামগ্রিক সর্বোচ্চ সম্ভাবনার চেয়ে অনেক ছোট, যা নির্দেশ করে যে ডেটা H₀-এর অধীনে অনেক কম সম্ভাব্য, এইভাবে এর বিরুদ্ধে প্রমাণ দেয়।
92. The sample characteristics (like sample mean, variance) are used as: / নমুনা বৈশিষ্ট্যগুলি (যেমন নমুনা গড়, ভেদাঙ্ক) কী হিসাবে ব্যবহৃত হয়?
Explanation: Since we usually cannot measure the entire population, we take a sample and calculate sample characteristics (statistics) to infer or estimate the unknown population characteristics (parameters). For instance, the sample mean x̄ is an estimate of the population mean μ.
ব্যাখ্যা: যেহেতু আমরা সাধারণত সম্পূর্ণ সমগ্রক পরিমাপ করতে পারি না, তাই আমরা একটি নমুনা নিই এবং অজানা সমগ্রকের বৈশিষ্ট্যগুলি (প্যারামিটার) অনুমান করার জন্য নমুনা বৈশিষ্ট্যগুলি (পরিসংখ্যান) গণনা করি। উদাহরণস্বরূপ, নমুনা গড় x̄ হলো সমগ্রকের গড় μ-এর একটি অনুমান।
93. What does it mean if an estimator is asymptotically unbiased? / একটি மதிப்ப অনুমানকারী অসীমপথে অপক্ষপাতদুষ্ট (asymptotically unbiased) হওয়ার অর্থ কী?
Explanation: An estimator might be biased for finite sample sizes, but if its bias (the difference between its expected value and the true parameter) goes to zero as n → ∞, it is called asymptotically unbiased. This is a desirable large-sample property.
ব্যাখ্যা: একটি மதிப்ப অনুমানকারী সসীম নমুনার আকারের জন্য পক্ষপাতদুষ্ট হতে পারে, কিন্তু যদি এর পক্ষপাত (এর প্রত্যাশিত মান এবং প্রকৃত প্যারামিটারের মধ্যে পার্থক্য) n → ∞ হলে শূন্যের দিকে যায়, তবে একে অসীমপথে অপক্ষপাতদুষ্ট বলা হয়। এটি একটি আকাঙ্ক্ষিত বড়-নমুনার বৈশিষ্ট্য।
94. The best critical region of a test is the one that: / একটি পরীক্ষার সেরা সংকটপূর্ণ অঞ্চল হলো সেটি যা:
Explanation: The goal in hypothesis testing is to control the Type I error at a fixed level α, and then, subject to that constraint, find the rejection region (critical region) that has the highest possible power (1-β). This is the “best” or “most powerful” critical region.
ব্যাখ্যা: প্রকল্পনা পরীক্ষার লক্ষ্য হলো টাইপ I ত্রুটিকে একটি নির্দিষ্ট স্তর α-এ নিয়ন্ত্রণ করা, এবং তারপর, সেই সীমাবদ্ধতার সাপেক্ষে, সেই বাতিলকরণ অঞ্চল (সংকটপূর্ণ অঞ্চল) খুঁজে বের করা যার সম্ভাব্য সর্বোচ্চ শক্তি (1-β) রয়েছে। এটিই “সেরা” বা “সবচেয়ে শক্তিশালী” সংকটপূর্ণ অঞ্চল।
95. If the sample correlation coefficient r = -0.95, it indicates: / যদি নমুনা সহসম্বন্ধ গুণাঙ্ক r = -0.95 হয়, তবে এটি নির্দেশ করে:
Explanation: The correlation coefficient ‘r’ ranges from -1 to +1. A value close to -1, like -0.95, indicates a very strong negative linear relationship, meaning that as one variable increases, the other tends to decrease in a highly predictable linear pattern.
ব্যাখ্যা: সহসম্বন্ধ গুণাঙ্ক ‘r’-এর পরিসর -1 থেকে +1। -1-এর কাছাকাছি একটি মান, যেমন -0.95, একটি খুব শক্তিশালী ঋণাত্মক রৈখিক সম্পর্ক নির্দেশ করে, যার অর্থ একটি চলক বাড়লে অন্যটি একটি অত্যন্ত অনুমানযোগ্য রৈখিক প্যাটার্নে হ্রাস পায়।
96. A confidence interval is an example of: / একটি আস্থা ব্যবধান কিসের উদাহরণ?
Explanation: Statistical inference has two main branches: estimation and hypothesis testing. Estimation can be further divided into point estimation (providing a single value for a parameter) and interval estimation (providing a range of plausible values for a parameter). A confidence interval is the primary tool for interval estimation.
ব্যাখ্যা: পরিসংখ্যানগত অনুমানের দুটি প্রধান শাখা রয়েছে: অনুমান এবং প্রকল্পনা পরীক্ষা। অনুমানকে আরও দুটি ভাগে ভাগ করা যায়: বিন্দু অনুমান (একটি প্যারামিটারের জন্য একটি একক মান প্রদান করা) এবং ব্যবধান অনুমান (একটি প্যারামিটারের জন্য সম্ভাব্য মানের একটি পরিসর প্রদান করা)। একটি আস্থা ব্যবধান হলো ব্যবধান অনুমানের জন্য প্রাথমিক হাতিয়ার।
97. The least squares regression line always passes through the point: / ন্যূনতম বর্গ নির্ভরণ রেখা সর্বদা কোন বিন্দুর মধ্য দিয়ে যায়?
Explanation: A key mathematical property of the least squares regression line is that it is guaranteed to pass through the point defined by the mean of the x-values and the mean of the y-values, (x̄, ȳ). This point acts as the “center of gravity” for the data cloud.
ব্যাখ্যা: ন্যূনতম বর্গ নির্ভরণ রেখার একটি মূল গাণিতিক বৈশিষ্ট্য হলো এটি x-মানগুলির গড় এবং y-মানগুলির গড় দ্বারা সংজ্ঞায়িত বিন্দু, (x̄, ȳ)-এর মধ্য দিয়ে যাওয়ার নিশ্চয়তা দেয়। এই বিন্দুটি ডেটা ক্লাউডের জন্য “ভরকেন্দ্র” হিসাবে কাজ করে।
98. The likelihood ratio test statistic, under certain regularity conditions and for large n, approximately follows which distribution under H₀? / likelihood ratio test পরিসংখ্যান, নির্দিষ্ট নিয়মিততার শর্তে এবং বড় n-এর জন্য, H₀-এর অধীনে প্রায় কোন নিবেশন অনুসরণ করে?
Explanation: According to Wilks’ theorem, for large sample sizes, the distribution of -2 * log(λ), where λ is the likelihood ratio test statistic, is approximately a Chi-square distribution. The degrees of freedom are equal to the difference in the number of free parameters between the full model and the model under H₀.
ব্যাখ্যা: উইলক্সের উপপাদ্য অনুসারে, বড় নমুনার আকারের জন্য, -2 * log(λ)-এর নিবেশন, যেখানে λ হলো সম্ভাবনা অনুপাত পরীক্ষার পরিসংখ্যান, প্রায় একটি কাই-স্কোয়ার নিবেশন। স্বাধীনতার মাত্রা হলো সম্পূর্ণ মডেল এবং H₀-এর অধীনে মডেলের মধ্যে মুক্ত প্যারামিটারের সংখ্যার পার্থক্যের সমান।
99. If a simple hypothesis is tested against a composite hypothesis, the Neyman-Pearson Lemma: / যদি একটি যৌগিক প্রকল্পনার বিরুদ্ধে একটি সরল প্রকল্পনা পরীক্ষা করা হয়, তবে নেইম্যান-পিয়ারসন লেমা:
Explanation: The Neyman-Pearson Lemma is strictly for testing a simple null hypothesis against a simple alternative hypothesis. While its principles can be extended (e.g., via the Karlin-Rubin theorem for monotone likelihood ratios) to find UMP tests in some cases with composite alternatives, the lemma itself does not directly apply.
ব্যাখ্যা: নেইম্যান-পিয়ারসন লেমা কঠোরভাবে একটি সরল নাস্তিকল্পনাকে একটি সরল বিকল্প প্রকল্পনার বিরুদ্ধে পরীক্ষা করার জন্য। যদিও এর নীতিগুলি যৌগিক বিকল্পের ক্ষেত্রে কিছু ক্ষেত্রে UMP পরীক্ষা খুঁজে বের করার জন্য প্রসারিত করা যেতে পারে (যেমন, মনোটোন সম্ভাবনা অনুপাতের জন্য কার্লিন-রুবিন উপপাদ্যের মাধ্যমে), লেমাটি নিজে সরাসরি প্রযোজ্য নয়।
100. The process of using sample data to draw conclusions about a population is called: / নমুনা ডেটা ব্যবহার করে একটি সমগ্রক সম্পর্কে উপসংহারে আসার প্রক্রিয়াকে বলা হয়:
Explanation: Inferential statistics involves using data from a sample to make inferences or generalizations about the larger population from which the sample was drawn. This includes techniques like hypothesis testing and confidence interval estimation.
ব্যাখ্যা: অনুমানমূলক পরিসংখ্যানে একটি নমুনা থেকে ডেটা ব্যবহার করে বৃহত্তর সমগ্রক সম্পর্কে অনুমান বা সাধারণীকরণ করা জড়িত, যেখান থেকে নমুনাটি নেওয়া হয়েছিল। এর মধ্যে প্রকল্পনা পরীক্ষা এবং আস্থা ব্যবধান অনুমানের মতো কৌশল অন্তর্ভুক্ত।