Artikel

1.6.6.1: Was ist ein statistischer Test? - Mathematik


Angenommen, wir vergleichen zwei Zahlenreihen, Messungen, die aus zwei Stichproben stammen. Im Vergleich haben wir festgestellt, dass sie unterschiedlich sind. Aber wie kann man wissen, ob dieser Unterschied nicht zufällig entstanden ist? Mit anderen Worten, wie kann man entscheiden, dass unsere beiden Stichproben wirklich unterschiedlich sind, d. h. nicht aus der einen Population stammen?

Diese Proben könnten beispielsweise Messungen des systolischen Blutdrucks sein. Wenn wir das potenziell blutdrucksenkende Medikament untersuchen, ist es sinnvoll, es zufällig mit einem Placebo zu mischen und dann die Mitglieder der Gruppe zu bitten, ihren Blutdruck am ersten Tag der Studie und, sagen wir, am zehnten Tag anzugeben. Dann lässt der Unterschied zwischen zwei Messungen zu, ob es einen Effekt gibt:

Code (PageIndex{1}) (R):

Nun gibt es einen vielversprechenden Effekt, einen ausreichenden Unterschied zwischen Blutdruckunterschieden mit Medikament und mit Placebo. Dies ist auch bei Boxplots gut sichtbar (prüfen es selbst). Wie testet man es? Wir wissen bereits, wie man den p-Wert verwendet, aber es ist das Ende der logischen Kette. Lassen Sie uns von vorne beginnen.

Statistische Hypothesen

Philosophen postulierten, dass Wissenschaft niemals eine Theorie beweisen kann, sondern nur widerlegen es. Wenn wir 1000 Fakten sammeln, die eine Theorie stützen, bedeutet das nicht, dass wir sie bewiesen haben – es ist möglich, dass der 1001ste Beweis sie widerlegt. Aus diesem Grund verwenden wir bei statistischen Tests häufig zwei Hypothesen. Diejenige, die wir beweisen wollen, heißt Alternativhypothese ((H_1)). Die andere, Standardeinstellung, heißt die Nullhypothese ((H_0)). Die Nullhypothese ist eine Aussage über das Fehlen von etwas (zum Beispiel Differenz zwischen zwei Stichproben oder Beziehung zwischen zwei Variablen). Wir können die Alternativhypothese nicht beweisen, aber wir können die Nullhypothese verwerfen und daher zur Alternative wechseln. Wenn wir die Nullhypothese nicht ablehnen können, müssen wir bei ihr bleiben.

Statistische Fehler

Bei zwei Hypothesen gibt es vier mögliche Ergebnisse (Tabelle (PageIndex{1})).

Das erste (a) und das letzte (d) Ergebnis sind Idealfälle: Wir akzeptieren entweder die Nullhypothese, die für die untersuchte Population richtig ist, oder wir lehnen (H_0) ab, wenn sie falsch ist.

Wenn wir die Alternativhypothese akzeptiert haben, wenn sie nicht wahr ist, haben wir a Statistischer Fehler Typ I– Wir haben ein Muster gefunden, das nicht existiert. Diese Situation wird oft als „falsch positiv“ oder „falscher Alarm“ bezeichnet. Die Wahrscheinlichkeit, einen Fehler 1. Art zu begehen, ist mit einem p-Wert verbunden, der immer als Ergebnis eines statistischen Tests gemeldet wird. Tatsächlich, p-Wert ist eine Wahrscheinlichkeit, dieselbe oder eine größere Wirkung zu haben, wenn die Nullhypothese wahr ist.

Stellen Sie sich einen Sicherheitsbeamten im Nachtdienst vor, der etwas Seltsames hört. Es gibt zwei Möglichkeiten: Springen Sie und prüfen Sie, ob dieses Geräusch ein Hinweis auf etwas Wichtiges ist, oder entspannen Sie sich weiter. Wenn der Lärm draußen nicht wichtig oder sogar nicht echt ist, aber der Offizier sprang, ist dies der Fehler Typ I. Die Wahrscheinlichkeit, das verdächtige Geräusch zu hören, wenn tatsächlich nichts passiert, in einem p-Wert.

StichprobeBevölkerungNull ist wahrAlternative ist wahr
Akzeptiere null
Alternative akzeptieren

Tabelle (PageIndex{1}) Statistische Hypothesen, einschließlich Abbildungen von Fehlern (b) Typ I und (c) Typ II. Größere Punkte sind Stichproben, alle Punkte sind Population(en).

Für den Sicherheitsbeauftragten ist es wahrscheinlich besser, einen Fehler vom Typ I zu begehen, als etwas Wichtiges zu überspringen. In der Wissenschaft ist die Situation jedoch umgekehrt: Wir bleiben immer bei (H_0), wenn die Wahrscheinlichkeit, einen Fehler vom Typ I zu begehen, ist zu hoch. Philosophisch ist dies eine Variante von Ockhams Rasiermesser: Wissenschaftler ziehen es immer vor, nichts ohne Notwendigkeit einzuführen (d. h. auf eine Alternative zu wechseln).

der Mann, der im Alleingang die Welt vor einem Atomkrieg gerettet hat

Dieser Ansatz findet sich auch in anderen Bereichen unseres Lebens. Lesen Sie den Wikipedia-Artikel über Stanislav Petrov (https://en.Wikipedia.org/wiki/Stanislav_Petrov); Dies ist ein weiteres Beispiel, wenn Fehlalarme zu teuer sind.

Die offensichtliche Frage ist, welche Wahrscheinlichkeit „zu hoch“ ist. Die konventionelle Antwort setzt diesen Schwellenwert auf 0,05 – die Alternativhypothese wird akzeptiert, wenn der p-Wert weniger als 5 % beträgt (mehr als 95 % Konfidenzniveau). In der Medizin, bei der Menschenleben auf dem Spiel stehen, werden die Schwellenwerte noch strenger festgelegt, bei 1% oder sogar 0,1%. Im Gegensatz dazu werden in den Sozialwissenschaften häufig 10 % als Schwellenwert akzeptiert. Was auch immer als Schwellenwert gewählt wurde, es muss eingestellt werden a priori, vor jedem Test. Es ist nicht erlaubt, den Schwellenwert zu ändern, um eine Entschuldigung für eine statistische Entscheidung zu finden.

Abbildung (PageIndex{1}) Schema der statistischen Entscheidung (für 1-seitigen Test). (alpha) ist die Wahrscheinlichkeit eines Fehlers vom Typ I, (eta) – eines Fehlers vom Typ II. Vor dem Test müssen wir (alpha) setzen, normalerweise auf 0,05. Dann verwenden wir die Originaldaten, um die Statistik zu berechnen (schätzen Sie die Position der schwarzen vertikalen Linie). Als nächstes verwenden wir die Statistik, um den p-Wert zu berechnen. Ist der p-Wert schließlich kleiner als (alpha), verwerfen wir die Nullhypothese.

Akzeptieren Sie die Nullhypothese, wenn die Alternative tatsächlich wahr ist: a Statistischer Fehler Typ II– Fehler, ein tatsächlich vorhandenes Muster zu erkennen. Dies wird als „falsch negativ“, „Nachlässigkeit“ bezeichnet. Wenn der unvorsichtige Sicherheitsbeamte nicht gesprungen ist, wenn der Lärm draußen wirklich wichtig ist, ist dies Fehler Typ II. Die Wahrscheinlichkeit, einen Fehler vom Typ II zu begehen, wird ausgedrückt als Leistung des statistischen Tests (Abbildung (PageIndex{1})). Je kleiner diese Wahrscheinlichkeit ist, desto aussagekräftiger ist der Test.


High School: Statistik & Wahrscheinlichkeit » Einführung

Entscheidungen oder Vorhersagen basieren oft auf Daten und Zahlen im Kontext. Diese Entscheidungen oder Vorhersagen wären einfach, wenn die Daten immer eine klare Botschaft senden würden, aber die Botschaft wird oft durch Variabilität verdeckt. Statistik bietet Werkzeuge zur Beschreibung der Variabilität von Daten und zum Treffen fundierter Entscheidungen, die diese berücksichtigen.

Daten werden gesammelt, angezeigt, zusammengefasst, untersucht und interpretiert, um Muster und Abweichungen von Mustern zu entdecken. Quantitative Daten können anhand von Schlüsselmerkmalen beschrieben werden: Maße der Form, des Zentrums und der Ausbreitung. Die Form einer Datenverteilung kann als symmetrisch, schief, flach oder glockenförmig beschrieben und durch ein statistisches Messzentrum (z. B. Mittelwert oder Median) und eine statistische Messstreuung (z. B. Standardabweichung oder Interquartilsabstand) zusammengefasst werden ). Unterschiedliche Verteilungen können anhand dieser Statistiken numerisch oder anhand von Diagrammen visuell verglichen werden. Die Kenntnis von Zentrum und Streuung reicht nicht aus, um eine Verteilung zu beschreiben. Welche Statistiken zu vergleichen sind, welche Diagramme zu verwenden sind und was die Ergebnisse eines Vergleichs bedeuten könnten, hängt von der zu untersuchenden Frage und den zu ergreifenden realen Maßnahmen ab.

Die Randomisierung hat zwei wichtige Verwendungszwecke, um statistische Schlussfolgerungen zu ziehen. Erstens ermöglicht die Erhebung von Daten aus einer Zufallsstichprobe einer Grundgesamtheit unter Berücksichtigung der Variabilität valide Rückschlüsse auf die gesamte Grundgesamtheit. Zweitens ermöglicht die zufällige Zuweisung von Personen zu verschiedenen Behandlungen einen fairen Vergleich der Wirksamkeit dieser Behandlungen. Ein statistisch signifikantes Ergebnis ist ein Ergebnis, das wahrscheinlich nicht allein auf den Zufall zurückzuführen ist und das nur unter der Bedingung des Zufalls bewertet werden kann. Die Bedingungen der Datenerhebung sind wichtig, um Schlussfolgerungen aus den Daten zu ziehen, um die Verwendung von Statistiken in öffentlichen Medien und anderen Berichten kritisch zu überprüfen, es ist wichtig, das Studiendesign, die Art der Datenerhebung und die verwendeten Analysen zu berücksichtigen sowie consider die Datenzusammenfassungen und die daraus gezogenen Schlussfolgerungen.

Zufällige Prozesse können mathematisch beschrieben werden, indem ein Wahrscheinlichkeitsmodell verwendet wird: eine Liste oder Beschreibung der möglichen Ergebnisse (der Stichprobenraum), denen jeweils eine Wahrscheinlichkeit zugeordnet ist. In Situationen wie dem Werfen einer Münze, dem Würfeln eines Zahlenwürfels oder dem Ziehen einer Karte kann es sinnvoll sein, anzunehmen, dass verschiedene Ergebnisse gleich wahrscheinlich sind. In einem Wahrscheinlichkeitsmodell stellen Stichprobenpunkte Ergebnisse dar und werden kombiniert, um Ereignisse zu bilden. Wahrscheinlichkeiten von Ereignissen können durch Anwendung der Additions- und Multiplikationsregeln berechnet werden. Die Interpretation dieser Wahrscheinlichkeiten beruht auf einem Verständnis von Unabhängigkeit und bedingter Wahrscheinlichkeit, die durch die Analyse von Zweiwegtabellen erreicht werden können.

Technologie spielt eine wichtige Rolle in Statistik und Wahrscheinlichkeit, indem sie es ermöglicht, Diagramme, Regressionsfunktionen und Korrelationskoeffizienten zu generieren und viele mögliche Ergebnisse in kurzer Zeit zu simulieren.

Verbindungen zu Funktionen und Modellierung

Funktionen können verwendet werden, um Daten zu beschreiben, wenn die Daten eine lineare Beziehung nahelegen, die Beziehung mit einer Regressionslinie modelliert werden kann und ihre Stärke und Richtung durch einen Korrelationskoeffizienten ausgedrückt werden kann.


Römische Buchstaben

  • b = ja Abfangen einer Linie. Hier in Kapitel 4 definiert. (Einige Statistikbücher verwenden b0.)
  • BD oder BPD = binomiale Wahrscheinlichkeitsverteilung. Hier in Kapitel 6 definiert.
  • KI = Konfidenzintervall. Hier in Kapitel 9 definiert.
  • CLT = Zentraler Grenzwertsatz. Hier in Kapitel 8 definiert.
  • d = Unterschied zwischen gepaarten Daten. Hier in Kapitel 11 definiert.
  • df oder ν nu = Freiheitsgrade in einer Student´s t- oder χ -Verteilung. Hier in Kapitel 9 definiert. Hier in Kapitel 12 definiert.
  • DPD = diskrete Wahrscheinlichkeitsverteilung. Hier in Kapitel 6 definiert.
  • E = Fehlerspanne, a/k/a maximaler Fehler der Schätzung. Hier in Kapitel 9 definiert.
  • f = Frequenz. Hier in Kapitel 2 definiert.
  • f/nein = relative Häufigkeit. Hier in Kapitel 2 definiert.
  • HT = Hypothesentest. Hier in Kapitel 10 definiert.
  • HÖ = Nullhypothese. Hier in Kapitel 10 definiert.
  • H1 oder Hein = Alternativhypothese. Hier in Kapitel 10 definiert.
  • IQR = Interquartilsabstand, Q3−Q1. Hier in Kapitel 3 definiert.
  • ich = Steigung einer Linie. Hier in Kapitel 4 definiert. (Der TI-83 verwendet ein und einige Statistikbücher verwenden b1.)
  • M oder Med = Median einer Stichprobe. Hier in Kapitel 3 definiert.
  • nein = Stichprobengröße, Anzahl der Datenpunkte. Hier in Kapitel 2 definiert. Außerdem Anzahl der Versuche in einem Wahrscheinlichkeitsexperiment mit einem Binomialmodell. Hier in Kapitel 6 definiert.
  • Nein = Bevölkerungsgröße.
  • ND = Normalverteilung, deren Graph eine Glockenkurve ist, auch normalverteilt . Hier in Kapitel 7 definiert.
  • p = Wahrscheinlichkeitswert. Die konkrete Bedeutung hängt vom Kontext ab.

In geometrischen und binomialen Wahrscheinlichkeitsverteilungen p ist die Wahrscheinlichkeit des Erfolgs (hier in Kapitel 6 definiert) bei einem Versuch und q = (1−p) ist die Wahrscheinlichkeit des Versagens (die einzige andere Möglichkeit) bei einem Versuch.

Beim Hypothesentest, p ist der berechnete p-Wert (hier in Kapitel 10 definiert), die Wahrscheinlichkeit, dass die Ablehnung der Nullhypothese eine falsche Entscheidung wäre.

In Tests der Bevölkerungsanteile, p steht für Bevölkerungsanteil und für Probenanteil (siehe Tabelle oben).

Vorsicht! Die Reihenfolge von EIN und B mag Ihnen auf den ersten Blick rückständig erscheinen.


Strategien zur Lösung von Statistikproblemen

Nehmen wir ein statistisches Problem und verstehen die Strategien, um es zu lösen. Die folgenden Strategien basieren auf dem Stichprobenproblem und lösen es sequentiell.

Dieses statistische Beispielproblem lautet: 11,11, 6, 9, 14, -3, 0, 7, 22, -5 , -4, 13, 13, 9, 4 , 6, 11

#1: Entspann dich und sieh dir das gegebene Statistikproblem an

Wenn Schüler die Statistikaufgaben zuordnen, haben Sie bemerkt, dass sie in Panik geraten. Aufgrund von Panik besteht eine höhere Wahrscheinlichkeit, beim Lösen von Statistikverteilungen Fehler zu machen.

Dies könnte daran liegen, dass die Schüler glauben, dass sie diese Fragen lösen können, was zu einem geringen Vertrauen führt. Aus diesem Grund ist es notwendig, sich zu beruhigen, bevor Sie beginnen, ein Statistikproblem zu lösen.

Hier ist ein Beispiel, das Ihnen hilft, das Statistikproblem leicht zu verstehen.

Bei fast 17 Jungen wurde eine bestimmte Krankheit diagnostiziert, die zu einer Gewichtsveränderung führt.

Hier waren die Daten nach der Familientherapie wie folgt:

11,11, 6, 9, 14, -3, 0, 7, 22, -5 , -4, 13, 13, 9, 4 , 6, 11

#2: Analysiere das Statistikproblem

Nachdem Sie das Statistikproblem zugewiesen haben, analysieren Sie nun die Abfrage, um sie genau zu lösen.

Überprüfen Sie, was Sie bei dem Problem ausführen müssen. Es wäre hilfreich, wenn man die obere Konfidenzgrenze erhalten würde, die den Mittelwert verwenden kann: die Freiheitsgrade und den t-Wert.

Hier stellt sich die Frage: Was bedeuten die Freiheitsgrade bei einem t-Test?

Nehmen Sie eine Beispielfrage: Wenn es gibt nein Anzahl der Beobachtungen. Es wäre hilfreich, wenn Sie den Mittelwert schätzen. Dadurch bleibt der n-1 Freiheitsgrad übrig, der für die geschätzte Variabilität verwendet wird.

Für das obige Problem können wir den Durchschnitt zusammen mit dem Beispielwert 17-1 schätzen, der gleich 16 ist.

Um die Schwierigkeit zu erkennen, studieren Sie die Zahlen, die man haben kann.

  • Man sollte eine untere Vertrauensgrenze haben.
  • Holen Sie sich alle spezifischen Scores.
  • Sie müssen die Anzahl der Punktzahlen verstehen (17).

Betrachten Sie die Dinge, an die Sie sich erinnern können (oder in einem Lehrbuch sehen können).

  • Die durchschnittliche Punktzahl der Zahl ist die Addition der Punktzahlen geteilt durch die Gesamtpunktzahl.
  • Um die untere Vertrauensgrenze zu erhalten, muss man minus (t * Standardfehler) machen.
  • Eine OBERE Vertrauensgrenze ist der gesammelte Durchschnitt + (t * Standardfehler).

#3: Wählen Sie die Strategie zur Lösung von Statistikproblemen

Darüber hinaus gibt es mehrere Methoden, um die obere Konfidenzgrenze zu erhalten, all dies beinhaltet den Rechenwert (t*Standardfehler), um den Mittelwert zu erhalten. Es gibt den einfachsten Ansatz ist

  • Bestimmen Sie, was der Mittelwert bewirkt.
  • Überprüfen Sie die Differenz zwischen dem Mittelwert und der Grenze der unteren Konfidenz.
  • Summiere die Zahl zum Mittelwert.

Dies sind Schritte, bei denen die meisten Leute verwirrt sind. Dies kann an den drei Hauptgründen liegen.

  • Der erste ist, dass die Studenten gestresst sind, weil sie sich verschiedenen akademischen Studien hingeben.
  • Zweitens haben die Lernenden nicht genug Zeit, um die Statistikprobleme zu überprüfen und zu erkennen, was zuerst zu tun ist.
  • Drittens ruhen sie sich keine Minute aus und studieren den richtigen Ansatz.

Wir denken, dass einige Schüler auf den ersten drei Stufen nicht genügend Zeit bezahlen, bevor sie zur vierten Zahl überspringen.

#4: Führe es sofort aus

Dies ist die richtige Antwort.

#5: Überprüfen Sie, wie Sie Statistikprobleme lösen können

Führen Sie eine Gewissheitsüberprüfung durch. Der Mittelwert muss 7,29 betragen. Liegt es nicht in der Kategorie der unteren und oberen Konfidenzgrenzen, dann stimmt etwas nicht.

Schauen Sie morgen noch einmal nach, um die Bestätigung der Nummer zu erhalten. Diese Schritte würden für alle Statistikprobleme implementiert (und eine mathematische Abfrage – könnte ein Rätsel im Leben sein.)

Lassen Sie uns die obigen Schritte verstehen, indem wir ein statistisches Problem lösen !!

Problem: In einem Staat gibt es 52% der Wähler Demokraten und fast 48% sind Republikaner. In einem anderen Bundesstaat sind 47 % der Wähler Demokraten und 53 % Republikaner. Wenn die Stichprobe 100 Wähler umfasst, welche Wahrscheinlichkeit entspricht dann dem maximalen Prozentsatz von Demokraten in einem anderen Bundesstaat.

P1 = republikanischer Wähleranteil im ersten Bundesstaat,

P2 = Anteil der republikanischen Wähler in einem anderen Staat,

p1 = Stichprobenanteil der republikanischen Wähler im ersten Bundesstaat,

p2 = Stichprobenanteil der republikanischen Wähler in einem anderen Bundesstaat,

n1 = Anzahl der Wähler im ersten Bundesland,

n2 = Zahl der Wähler in einem anderen Bundesland,

Lassen Sie es uns nun in vier Schritten lösen:

  • Denken Sie daran, dass der Stichprobenumfang größer sein muss, um die Differenz für eine normale Population zu modellieren. Deshalb, P1*n1 = 0.52*100 =52, (1-P1)*n1 = 0.48 *100 = 48.

Andererseits, P2*n2 = 0.47*100 =47, (1-P2)*n2 = 0,53*100 = 53, was größer als 10 ist. Wir können also sagen, dass die Stichprobengröße viel größer ist.

  • Berechnen Sie den Mittelwert der Differenz der Stichprobenanteile: E(p1 – p2) => P1 – P2= 0,52 – 0,47 => 0,05.
  • Berechnen Sie die Differenz der Standardabweichung.

d = Quadrat ( 0,002491 + 0,002496 ) = Quadrat (0,004987) = 0,0706

  • Berechnen Sie die Wahrscheinlichkeit. Das gegebene Problem muss die Wahrscheinlichkeit berechnen, die p1 < p2 ist.

Dies ist vergleichbar mit der Bestimmung der Wahrscheinlichkeit, die (p1 – p2) < 0 ist. Um die Wahrscheinlichkeit zu berechnen, müssen Sie die Variable (p1 – p2) in den Z-Score transformieren. Die Verwandlung wird sein:

z (Basis (p1 – p2)) = (x – μ (Basis (p1 – p2) ) / σd = (0 – 0,05)/0,0706 => -0,7082

  • Mit Hilfe des Normalverteilungsrechners von Stat Trek’s können Sie berechnen, dass die Z-Score-Wahrscheinlichkeit, die -0,7082 beträgt, 0,24 beträgt.

Aus diesem Grund zeigt die Wahrscheinlichkeit einen höheren Prozentsatz der republikanischen Wähler in einem anderen/zweiten Bundesstaat als im ersten Bundesstaat und beträgt 0,24.


1.6.6.1: Was ist ein statistischer Test? - Mathematik

Neben den folgenden Fragen zu PISA sind weitere FAQs zu internationalen Assessments verfügbar unter: http://nces.ed.gov/surveys/international/faqs.asp

1. Welche Themenbereiche werden in PISA bewertet?

PISA misst die Leistungen der Schüler in den Bereichen Lesen, Mathematik und Naturwissenschaften. Jeder PISA-Datenzyklus wird alle 3 Jahre durchgeführt und bewertet einen der drei Kernfächer (als Haupt- oder Schwerpunktfach betrachtet) eingehend, obwohl alle drei Kernfächer in jedem Zyklus bewertet werden (die anderen beiden Fächer gelten für diese Bewertung als Nebenfächer). Jahr). Die Bewertung aller drei Fächer alle drei Jahre ermöglicht es den Ländern, über eine konsistente Quelle von Leistungsdaten in jedem der drei Fächer zu verfügen, während im Laufe der Jahre ein Bereich im Vordergrund steht. Zusätzlich zu den Kernprüfungen können Bildungssysteme an optionalen Prüfungen wie Finanzkompetenz und Problemlösung teilnehmen. Weitere Informationen zu den PISA-Bewertungsrahmen finden Sie unter: www.oecd.org/pisa/pisaproducts.

Im Jahr 2018 war die Lesekompetenz das Hauptfach, wie auch in den Jahren 2009 und 2000. Neben der Kernprüfung in den Fächern Naturwissenschaften, Lesen und Mathematik umfasste der Zyklus 2018 eine optionale Prüfung der Finanzkompetenz. Die Vereinigten Staaten nahmen an dieser optionalen Bewertung teil.

PISA-Verwaltungszyklus

Veranlagungsjahr 2000 2003 2006 2009 2012 2015 2018
Bewertete Fächer LESEN
Mathematik
Wissenschaft
lesen
MATHEMATIK
Wissenschaft
Probleme lösen
lesen
Mathematik
WISSENSCHAFT
LESEN
Mathematik
Wissenschaft
lesen
MATHEMATIK
Wissenschaft
Probleme lösen
Finanziell
lesen
Mathematik
WISSENSCHAFT
Kollaborativ
Probleme lösen
Finanzielle Bildung
LESEN
Mathematik
Wissenschaft
Finanzielle Bildung

HINWEIS: Lese-, Mathematik- und Naturwissenschaften werden in jedem Bewertungszyklus des Programms für internationale Bewertung (PISA) bewertet. In den Jahren 2003 und 2012 wurde eine separate Problemlösungsbewertung durchgeführt und in den Jahren 2012, 2015 und 2018 die Finanzkompetenz. Das Fach in Fettdruck und Großbuchstaben ist der Haupt- oder Schwerpunktbereich für diesen Zyklus. Ab dem Zyklus 2015 wird PISA vollständig am Computer verwaltet.

2. Was sind die Bestandteile von PISA?

Bewertungen
PISA 2018 bestand aus einer computergestützten Erhebung der naturwissenschaftlichen, Lese- und Mathematikkompetenz der Schüler. Die Länder könnten sich auch dafür entscheiden, an einer Bewertung der Finanzkompetenz teilzunehmen. In jeder teilnehmenden Schule nahmen die Schüler der Stichprobe an einer zweistündigen computergestützten Bewertung teil, die eine Kombination aus Naturwissenschaften, Lesen und Mathematik umfasste. Eine Teilstichprobe von Schülern, die an der Hauptprüfung teilnahmen, wurde gebeten, zu einer zweiten Sitzung zurückzukehren, in der sie eine computergestützte Prüfung der Finanzkompetenz abschlossen.

Fragebögen
Im Jahr 2018 bot PISA folgende Fragebögen an:

  • Die Schüler füllten einen 45-minütigen Schülerfragebogen mit Informationen über ihren Hintergrund, ihre Einstellungen zum Lesen und Lernstrategien und -erfahrungen aus.
  • Die Schüler, die für die Bewertung der Finanzkompetenz ausgewählt wurden, wurden gebeten, einen separaten Fragebogen zu ihrem Hintergrund und ihren Erfahrungen in Bezug auf Finanzkompetenz auszufüllen.
  • Der Schulleiter jeder teilnehmenden Schule füllte einen 30-minütigen Schulfragebogen aus, der unter anderem Informationen über die Demografie und das Lernumfeld der Schule enthielt.
  • Eine Stichprobe von Lehrern jeder Schule wurde ausgewählt, um einen Lehrerfragebogen auszufüllen, der Informationen über den Hintergrund der Lehrer, ihre Ausbildung und berufliche Entwicklung sowie die Unterrichtspraxis liefern sollte. An jeder Schule wurden zehn Sprachlehrer und 15 nichtsprachliche Kunstlehrer ausgewählt, die berechtigt waren, die modale Klasse zu unterrichten, in der 15-Jährige eingeschrieben sind (10. Klasse in den Vereinigten Staaten). Der Lehrerfragebogen war für die Länder optional. Die Vereinigten Staaten haben diesen Fragebogen 2018 implementiert.
  • PISA enthält auch einen Fragebogen für die Eltern oder Erziehungsberechtigten von Schülern, obwohl die Vereinigten Staaten diesen Fragebogen nicht durchgeführt haben.

Die in den USA verwendeten PISA-Fragebögen sind verfügbar unter: http://nces.ed.gov/surveys/pisa/questionnaire.asp.

3. Wie viele US-Schulen und Schüler nehmen an PISA teil?

Veranlagungsjahr Anzahl der teilnehmenden Studierenden Anzahl der teilnehmenden Schulen Rücklaufquote der Schule (in Prozent) Gesamtrücklaufquote der Schüler (in Prozent)
Originalschulen Mit Ersatzschulen
2000 3,700 145 56 70 85
2003 5,456 262 65 68 83
2006 5,611 166 69 79 91
2009 5,233 165 68 78 87
2012 6,111 161 67 77 89
2015 5,712 177 67 83 90
2018 4,811 162 65 76 85

4. Wie wählt PISA eine repräsentative Schülerstichprobe aus?

Um gültige Schätzungen der Leistungen und Merkmale der Schüler zu liefern, wählt PISA eine Schülerstichprobe aus, die die gesamte Bevölkerung der 15-jährigen Schüler in jedem teilnehmenden Land oder Bildungssystem repräsentiert. Diese Population wird international definiert als 15-Jährige (15 Jahre und 3 Monate bis 16 Jahre und 2 Monate zu Beginn des Testzeitraums), die sowohl öffentliche als auch private Schulen in den Klassen 7-12 besuchen. Jedes Land oder Bildungssystem legt dem internationalen Konsortium von Organisationen, die für die Durchführung von PISA verantwortlich sind, einen Stichprobenrahmen vor. Der internationale Stichprobenvertrag der OECD validiert dann den Stichprobenrahmen jedes Landes bzw. Bildungssystems.

Sobald ein Stichprobenrahmen validiert ist, zieht der internationale Auftragnehmer eine wissenschaftliche Zufallsstichprobe von mindestens 150 Schulen aus jedem Rahmen mit zwei Ersatzschulen für jede ursprüngliche Schule, es sei denn, es gibt weniger als 150 Schulen, in diesem Fall werden alle Schulen in die Stichprobe einbezogen. Es wurden mindestens 50 Schulen für subnationale Teilnehmer ausgewählt. Die Liste der ausgewählten Schulen, sowohl der ursprünglichen als auch der Ersatzschulen, wird an das nationale PISA-Zentrum jedes Bildungssystems übermittelt. Länder und Bildungssysteme ziehen keine eigenen Stichproben.

Jedes Land/Bildungssystem ist für die Rekrutierung der in die Stichprobe einbezogenen Schulen verantwortlich. Sie beginnen mit der Originalstichprobe und nutzen die Ersatzschulen nur dann, wenn eine Originalschule die Teilnahme verweigert. Gemäß den PISA-Richtlinien werden Ersatzschulen identifiziert, indem die beiden benachbarten Schulen der Stichprobenschule im Stichprobenrahmen als Ersatzschulen eingesetzt werden, die für den Fall verwendet werden, dass eine ursprüngliche Stichprobenschule die Teilnahme verweigert. Ersatzschulen müssen derselben impliziten Schicht angehören (d. h. ähnliche demografische Merkmale aufweisen) wie die in die Stichprobe einbezogene Schule. Die Zielvorgabe der internationalen Schule für die Rücklaufquote lag für alle Bildungssysteme bei 85 Prozent. Mindestens 65 Prozent der Schulen aus der ursprünglichen Schulstichprobe mussten teilnehmen, damit die Daten eines Bildungssystems in die internationale Datenbank aufgenommen werden können. Bildungssysteme durften Ersatzschulen (die während des Stichprobenverfahrens ausgewählt wurden) verwenden, um die Rücklaufquote zu erhöhen, sobald die 65-Prozent-Marke erreicht war.

Nachdem die Schulen eine Stichprobe gezogen haben und sich zur Teilnahme bereit erklärt haben, werden die Schüler einer Stichprobe unterzogen. Mindestens 6.300 Schüler waren in jedem Land oder Bildungssystem erforderlich, das die PISA-Kernmessung und den optionalen Finanzkompetenztest durchführen wollte. (Die Mindeststichprobengröße für subnationale Bildungssysteme wie US-Bundesstaaten betrug 1.500 Schüler.) Jedes Land/jedes Bildungssystem übermittelt dem internationalen Auftragnehmer der OECD für die Stichprobenziehung auf Schülerebene Formulare für die Schülerlisten mit allen förderfähigen Schülern für jede ihrer Schulen .

Der internationale Auftragnehmer der OECD überprüft die Schülerlisten sorgfältig und verwendet eine ausgeklügelte Software, um Datenvaliditätsprüfungen durchzuführen, um jede Liste mit dem, was über die Schulen bekannt ist (z. B. erwartete Einschreibung, Geschlechterverteilung) und PISA-Zulassungsvoraussetzungen (z. . Die ausgewählten Schülerproben werden dann an jedes nationale Zentrum zurückgeschickt. Anders als bei der Schulstichprobe ist kein Austausch von Schülern in der Stichprobe zulässig.

Die Schulen informieren die Schüler über ihre Auswahl zur Teilnahme. Damit die Daten eines Landes/Bildungssystems von der OECD gemeldet werden können, muss die Schülerbeteiligung mindestens 80 Prozent betragen.

5. Bietet PISA Unterkünfte für Studierende an, die diese benötigen?

Um PISA so inklusiv wie möglich zu halten und die Ausgrenzungsrate von Schülern niedrig zu halten, verwendeten die Vereinigten Staaten die UH ('Une-Heure' oder „eine Stunde“ auf Französisch) Instrument für Schüler mit sonderpädagogischem Förderbedarf. Das UH-Instrument wurde Schülern mit sonderpädagogischem Förderbedarf an Regelschulen zur Verfügung gestellt und enthielt etwa halb so viele Items wie das reguläre Testinstrument. Diese Testaufgaben wurden als geeigneter für Schüler mit sonderpädagogischem Förderbedarf erachtet. Außerdem wurde ein UH-Studierendenfragebogen durchgeführt, der nur Trenditems aus dem regulären Studierendenfragebogen enthielt. Die Struktur sowohl des UH-Testinstruments als auch des UH-Studentenfragebogens erlaubte mehr Zeit pro Frage als die regulären Instrumente und die UH-Sitzungen wurden im Allgemeinen in kleinen Gruppen abgehalten.

6. Wie funktioniert der mehrstufige adaptive Lesetest PISA?

Um die Genauigkeit der Messung der Schülerleistungen zu erhöhen, wurde PISA 2018 eingeführt adaptives Testen in seiner Lesebewertung. Anstatt fest vorgegebene Testhefte zu verwenden, wie es bei PISA 2015 der Fall war, wurde die Leseleistung jedes Schülers dynamisch bestimmt, basierend auf den Leistungen des Schülers in den vorherigen Phasen. Mehrstufige adaptive Lesetests werden einfacher, weil PISA zu einer computergestützten Bewertungsplattform übergegangen ist, die mehr Flexibilität bei der Weiterleitung von Items und Blöcken oder Einheiten von Items bietet.

Der Lesetest von PISA 2018 bestand aus drei Stufen: Kern, Stufe 1 und Stufe 2. Die Schüler sahen zuerst eine kurze Kernstufe, die aus 7 bis 10 Items bestand. Die allermeisten dieser Items (mindestens 80 Prozent und immer mindestens 7 Items) wurden automatisch bewertet. Die Leistung der Schüler in dieser Phase wurde vorläufig als niedrig, mittel oder hoch eingestuft, abhängig von der Anzahl der richtigen Antworten auf diese automatisch bewerteten Items.

Die verschiedenen Kernblöcke des Materials, die den Schülern zur Verfügung gestellt wurden, unterschieden sich in ihrer Schwierigkeit nicht nennenswert. Stufe 1 und 2 existierten jedoch beide in zwei unterschiedlichen Formen: vergleichsweise einfach und vergleichsweise schwierig. Schülern, die in der Core-Phase mittlere Leistungen zeigten, wurde mit gleicher Wahrscheinlichkeit eine leichte oder eine schwierige Phase 1 zugewiesen. Schüler, die in der Core-Phase geringe Leistungen zeigten, hatten eine 90-prozentige Chance, einer leichten Phase 1 zugeordnet zu werden, und eine 10-prozentige Chance einer schwierigen Stufe 1 zuzuordnen. Schüler, die in der Kernstufe hohe Leistungen zeigten, hatten eine 90-prozentige Chance, einer schwierigen Stufe 1 zugeordnet zu werden, und eine 10-prozentige Chance, einer leichten Stufe 1 zugeordnet zu werden.

Die Schüler wurden in ähnlicher Weise in leichte und schwierige Lernblöcke der Stufe 2 eingeteilt. Um die Schülerleistungen so genau wie möglich zu klassifizieren, wurden jedoch Antworten auf automatisch bewertete Items sowohl aus der Kernstufe als auch aus Stufe 1 verwendet.

Weitere Informationen zum adaptiven PISA-Test finden Sie unter The PISA 2018 Technischer Bericht (OECD in Vorbereitung).

7. Welche Länder nehmen an PISA teil?

Länder nehmen an PISA teil, und auch die Bildungssysteme innerhalb der Länder nehmen an der Studie teil. Beispielsweise nahmen 2018 internationale Städte und Regionen an PISA teil, und US-Bundesstaaten haben an früheren PISA-Zyklen teilgenommen.

Die Liste der Länder und Bildungssysteme, die an jedem PISA-Zyklus teilgenommen haben, ist verfügbar unter: http://nces.ed.gov/surveys/pisa/countries.asp.

8. Wie ist die PISA-Bewertung im Vergleich zu TIMSS und NAEP?

Das Ziel von PISA ist es, die Ergebnisse des Lernens und nicht die der Schulbildung darzustellen. Durch die Betonung des Alters möchte PISA zeigen, was 15-Jährige im Laufe ihres Lebens innerhalb und außerhalb des Klassenzimmers gelernt haben, nicht nur in einer bestimmten Klasse. Die Konzentration auf das Alter von 15 Jahren bietet die Möglichkeit, umfassende Lernergebnisse zu messen, während die Schüler in den vielen teilnehmenden Nationen noch in der Schule sein müssen. Da die Bildungsjahre je nach Land und Bildungssystem variieren, erleichtert die Auswahl einer altersbasierten Stichprobe schließlich den Vergleich zwischen Ländern und Bildungssystemen etwas.

PISA wurde entwickelt, um die „Lese- und Schreibfähigkeit“ im Allgemeinen zu messen, während die Trends in International Mathematics and Science Study (TIMSS) und die National Assessment of Educational Progress (NAEP) stärkere Verbindungen zu den Lehrplanrahmen haben und versuchen, die Beherrschung bestimmter Kenntnisse und Fähigkeiten der Schüler zu messen , und Konzepte. Die Inhalte von PISA stammen aus breiten Inhaltsbereichen wie lebende Systeme und physikalische Systeme für die Naturwissenschaften, im Gegensatz zu spezifischeren lehrplanbasierten Inhalten wie Biologie oder Physik.

Weitere Informationen zu den Unterschieden in den jeweiligen Ansätzen zur Erfassung von Mathematik, Naturwissenschaften und Lesekompetenz zwischen PISA, TIMSS und NAEP finden Sie in den folgenden Papieren (ein Papier zum Vergleich von NAEP und PISA 2015 ist in Vorbereitung):

9. Wann werden PISA-Daten in den USA erhoben?

Mit Ausnahme des allerersten Datenerhebungszyklus im Jahr 2000 erheben die Vereinigten Staaten PISA-Daten im Herbst des vorgesehenen Datenerhebungsjahres. Die Datenerhebung von PISA 2018 wurde zwischen Oktober und November 2018 in den Vereinigten Staaten durchgeführt.

10. Wann soll PISA das nächste Mal durchgeführt werden?

Die nächste PISA-Verabreichung findet im Herbst 2021 statt. Die Ergebnisse werden Ende 2022 bekannt gegeben.

11. Werden PISA-Ergebnisse einzelner Schüler gemeldet oder stehen sie zur Analyse zur Verfügung?


Testvorbereitung und Testlösungen

Stellen Sie sicher, dass der Weg zum Erfolg Ihrer Schüler weit offen ist. Unsere Testtools und Studienleitfäden entsprechen den staatlichen und nationalen Standards und helfen Ihnen, die Lernenden auf eine glänzende, chancenreiche Zukunft vorzubereiten.

TestGen

Laden Sie die Testdatenbank herunter, die Ihrem Pearson-Lehrbuch entspricht, um auf einfache Weise Quizfragen und Tests zu erstellen, die Ihren Kursanforderungen entsprechen.

Limmer-Creative-Testvorbereitung

Erfahren Sie mehr über diese webbasierten Überprüfungs-Apps, mit denen Schüler ihre EMT-, AEMT- und Sanitäter-Zertifizierungsprüfungen erfolgreich bestehen können.

EMSTesting.com

Computeradaptive Tests, validierte Abschlussprüfungen, ein Online-Testgenerator und mehr helfen Ihnen bei der Erstellung und Verwaltung von Tests für Studenten des Rettungsdienstes (EMS).

Vorbereitung auf den Lehramtsprüfungstest

Entdecken Sie unsere Studienleitfäden zur Vorbereitung auf die Lehramtsprüfung. Diagnosetests, Bewertungstools und mehr helfen den Lernenden, sich sicher auf Prüfungen vorzubereiten.

Mein Test

Mit unserem Testgenerierungsprogramm können Sie ganz einfach Quizze und Prüfungen erstellen und drucken. Oder verfassen Sie Fragen und Tests online, um Bewertungen jederzeit und überall effizient zu verwalten.


Statistikhinweise: Ein- und zweiseitige Signifikanztests

Bei einigen Vergleichen - zum Beispiel zwischen zwei Mittelwerten oder zwei Anteilen - besteht die Wahl zwischen zweiseitigen oder einseitigen Signifikanztests (alle Vergleiche von drei oder mehr Gruppen sind zweiseitig).

* Dies ist die achte in einer Reihe gelegentlicher Anmerkungen zur medizinischen Statistik.

Wenn wir einen Signifikanztest verwenden, um zwei Gruppen zu vergleichen, beginnen wir normalerweise mit der Nullhypothese, dass es keinen Unterschied zwischen den Populationen gibt, aus denen die Daten stammen. Wenn diese Hypothese nicht wahr ist, muss die Alternativhypothese wahr sein - dass es einen Unterschied gibt. Da die Nullhypothese weder eine Richtung für die Differenz angibt noch die Alternativhypothese, haben wir einen zweiseitigen Test. Bei einem einseitigen Test gibt die Alternativhypothese eine Richtung vor – zum Beispiel, dass eine aktive Behandlung besser ist als ein Placebo. This is sometimes justified by saying that we are not interested in the possibility that the active treatment is worse than no treatment. This possibility is still part of the test it is part of the null hypothesis, which now states that the difference in the population is zero or in favour of the placebo.

A one sided test is sometimes appropriate. Luthra et al investigated the effects of laparoscopy and hydrotubation on the fertility of women presenting at an infertility clinic.1 After some months laparoscopy was carried out on those who had still not conceived. These women were then observed for several further months and some of these women also conceived. The conception rate in the period before laparoscopy was compared with that afterwards. The less fertile a woman is the longer it is likely to take her to conceive. Hence, the women who had the laparoscopy should have a lower conception rate (by an unknown amount) than the larger group who entered the study, because the more fertile women had conceived before their turn for laparoscopy came. To see whether laparoscopy increased fertility, Luthra et al tested the null hypothesis that the conception rate after laparoscopy was less than or equal to that before. The alternative hypothesis was that the conception rate after laparoscopy was higher than that before. A two sided test was inappropriate because if the laparoscopy had no effect on fertility the conception rate after laparoscopy was expected to be lower.

One sided tests are not often used, and sometimes they are not justified. Consider the following example. Twenty five patients with breast cancer were given radiotherapy treatment of 50 Gy in fractions of 2 Gy over 5 weeks.2 Lung function was measured initially, at one week, at three months, and at one year. The aim of the study was to see whether lung function was lowered following radiotherapy. Some of the results are shown in the table, the forced vital capacity being compared between the initial and each subsequent visit using one sided tests. The direction of the one sided tests was not specified, but it may appear reasonable to test the alternative hypothesis that forced vital capacity decreases after radiotherapy, as there is no reason to suppose that damage to the lungs would increase it. The null hypothesis is that forced vital capacity does not change or increases. If the forced vital capacity increases, this is consistent with the null hypothesis, and the more it increases the more consistent the data are with the null hypothesis. Because the differences are not all in the same direction, at least one P value should be greater than 0.5. What has been done here is to test the null hypothesis that forced vital capacity does not change or decreases from visit 1 to visit 2 (nine week), and to test the null hypothesis that it does not change or increases from visit 1 to visit 3 (three months) or visit 4 (one year). These authors seem to have carried out one sided tests in both directions for each visit and then taken the smaller probability. If there is no difference in the population the probability of getting a significant difference by this approach is 10%, not 5% as it should be. The chance of a spurious significant difference is doubled. Two sided tests should be used, which would give probabilities of 0.26, 0.064, and 0.38, and no significant differences.

In general a one sided test is appropriate when a large difference in one direction would lead to the same action as no difference at all. Expectation of a difference in a particular direction is not adequate justification. In medicine, things do not always work out as expected, and researchers may be surprised by their results. For example, Galloe et al found that oral magnesium significantly increased the risk of cardiac events, rather than decreasing it as they had hoped.3 If a new treatment kills a lot of patients we should not simply abandon it we should ask why this happened.

Two sided tests should be used unless there is a very good reason for doing otherwise. If one sided tests are to be used the direction of the test must be specified in advance. One sided tests should never be used simply as a device to make a conventionally non-significant difference significant.


What are Mathematical and Statistical Models

These types of models are obviously related, but there are also real differences between them.

Mathematical Models: grow out of equations that determine how a system changes from one state to the next (differential equations) and/or how one variable depends on the value or state of other variables (state equations) These can also be divided into either numerical models or analytical models.

As a way to clarify the above ideas, here is an example of the development of a simple mathematical model.


Statistical Questions (Grade 6)

These lessons help Grade 6 students learn how to recognize a statistical question as one that anticipates variability in the data related to the question and accounts for it in the answers.

Common Core: 6.SP.1

Suggested Learning Targets

  • I can recognize that data has variability.
  • I can recognize a statistical question (examples versus non-examples).

6.SP.1 Statistical Vs. Non-Statistical Questions < The following table gives some examples of statistical questions and non-statistical questions. Scroll down the page for more examples and solutions.

A statistical question is a question that should have different answers.

How to recognize a statistical question?

  • A question is not a statistical question if it has an exact answer. For example &ldquoHow old are you?&rdquo
  • A question is a statistical question if the answer is a percent, range, or an average. For example &ldquoHow old are the students in this room&rdquo

Identify which questions are statistical and which questions are not statistical.
• What is the favorite menu item for customers in the local restaurant?
• What time do most people eat their lunches?
• What did my dad eat for lunch today?
• What do 7th graders prefer to eat for lunch?

In a survey about practice time per week for high school athletes, 22% practice 1 hour, 40% practice 2 hours, 25% practice 3 hours, 10% practice 4 hours and 3% practice more than 4 hours.
Which one question is the most likely to have produced these results?
• What is the average practice time per week required by your sport?
• How much time do you spend doing homework during the week?
• Is practice time longer on Mondays than Tuesdays?
• Which sport practices the most?

Jessica conducted a survey using a representative sample of 50 customers from three local landscaping businesses in town. She found that 30% purchased maple trees, 24% purchased dogwoods, 20% purchased oaks, 16% purchased pines and 10% chose other types of trees.
Which statements about the survey that Jessica conducted are most likely to be true? Select all that apply.
• Jessica surveyed only the customers who purchased a tree.
• Jessica asked customers what type of tree they purchased.
• Jessica asked customers what type of plants they have in their yards.
• The sample consists of 50 customers from three local landscaping businesses in town.
• The population Jessica wants to know about consists of any customer of any landscaping business.

What Is A Statistical Question?

Definition: A statistical question has answers that will probably vary. Usually a statistical question will ask about a population of multiple people, events or things.

Examples Of Statistical Questions

  • What time did the students in this class get up this morning?
  • How many votes did the winning candidate for the Presidents of the Student Body receive in each of the past 20 years?
  • What were the high temperatures in all of the Latin American capitals today?

Examples Of Non-Statistical Questions

  • What time did I get up this morning?
  • How many votes did the winning candidate for the Student Body receive this year?
  • What was the high temperature in Mexico City today?

Statistical And Non-Statistical Questions

Examples:
Which of the following are statistical questions?

  • How old are the people who have watched this video in 2013?
  • Do dogs run faster than cats?
  • Do wolves weigh more than dogs?
  • Does your dog weigh more than that wolf?
  • Does it rain more in Seattle than Singapore?
  • What was the difference in rainfall between Singapore and Seattle in 2013?
  • In general, will I use less gas driving at 55 mph than 70 mph?
  • Do English professors get paid less than math professors?
  • Does the most highly paid English professor at Harvard get paid more that the most highly paid math professor in MIT?

Statistical Questions - Common Core Standard

Students must know variability refers to the spread of data.

Probieren Sie den kostenlosen Mathway-Rechner und den folgenden Problemlöser aus, um verschiedene mathematische Themen zu üben. Probieren Sie die angegebenen Beispiele aus oder geben Sie Ihr eigenes Problem ein und überprüfen Sie Ihre Antwort mit den Schritt-für-Schritt-Erklärungen.

Wir freuen uns über Ihr Feedback, Kommentare und Fragen zu dieser Site oder Seite. Bitte senden Sie Ihr Feedback oder Ihre Anfragen über unsere Feedback-Seite.


Note: The functions do not require the data given to them to be sorted. However, for reading convenience, most of the examples show sorted sequences.

Return the sample arithmetic mean of data which can be a sequence or iterable.

The arithmetic mean is the sum of the data divided by the number of data points. It is commonly called “the average”, although it is only one of many different mathematical averages. It is a measure of the central location of the data.

Wenn data is empty, StatisticsError will be raised.

The mean is strongly affected by outliers and is not a robust estimator for central location: the mean is not necessarily a typical example of the data points. For more robust measures of central location, see median() and mode() .

The sample mean gives an unbiased estimate of the true population mean, so that when taken on average over all the possible samples, mean(sample) converges on the true mean of the entire population. Wenn data represents the entire population rather than a sample, then mean(data) is equivalent to calculating the true population mean μ.

Convert data to floats and compute the arithmetic mean.

This runs faster than the mean() function and it always returns a float . Das data may be a sequence or iterable. If the input dataset is empty, raises a StatisticsError .

Convert data to floats and compute the geometric mean.

The geometric mean indicates the central tendency or typical value of the data using the product of the values (as opposed to the arithmetic mean which uses their sum).

Raises a StatisticsError if the input dataset is empty, if it contains a zero, or if it contains a negative value. Das data may be a sequence or iterable.

No special efforts are made to achieve exact results. (However, this may change in the future.)

Return the harmonic mean of data, a sequence or iterable of real-valued numbers.

The harmonic mean, sometimes called the subcontrary mean, is the reciprocal of the arithmetic mean() of the reciprocals of the data. For example, the harmonic mean of three values ein, b und c will be equivalent to 3/(1/a + 1/b + 1/c) . If one of the values is zero, the result will be zero.

The harmonic mean is a type of average, a measure of the central location of the data. It is often appropriate when averaging rates or ratios, for example speeds.

Suppose a car travels 10 km at 40 km/hr, then another 10 km at 60 km/hr. What is the average speed?

Suppose an investor purchases an equal value of shares in each of three companies, with P/E (price/earning) ratios of 2.5, 3 and 10. What is the average P/E ratio for the investor’s portfolio?

StatisticsError is raised if data is empty, or any element is less than zero.

The current algorithm has an early-out when it encounters a zero in the input. This means that the subsequent inputs are not tested for validity. (This behavior may change in the future.)

Return the median (middle value) of numeric data, using the common “mean of middle two” method. Wenn data is empty, StatisticsError is raised. data can be a sequence or iterable.

The median is a robust measure of central location and is less affected by the presence of outliers. When the number of data points is odd, the middle data point is returned:

When the number of data points is even, the median is interpolated by taking the average of the two middle values:

This is suited for when your data is discrete, and you don’t mind that the median may not be an actual data point.

If the data is ordinal (supports order operations) but not numeric (doesn’t support addition), consider using median_low() or median_high() instead.

statistics. median_low ( data ) ¶

Return the low median of numeric data. Wenn data is empty, StatisticsError is raised. data can be a sequence or iterable.

The low median is always a member of the data set. When the number of data points is odd, the middle value is returned. When it is even, the smaller of the two middle values is returned.

Use the low median when your data are discrete and you prefer the median to be an actual data point rather than interpolated.

statistics. median_high ( data ) ¶

Return the high median of data. Wenn data is empty, StatisticsError is raised. data can be a sequence or iterable.

The high median is always a member of the data set. When the number of data points is odd, the middle value is returned. When it is even, the larger of the two middle values is returned.

Use the high median when your data are discrete and you prefer the median to be an actual data point rather than interpolated.

statistics. median_grouped ( data, interval=1 ) ¶

Return the median of grouped continuous data, calculated as the 50th percentile, using interpolation. Wenn data is empty, StatisticsError is raised. data can be a sequence or iterable.

In the following example, the data are rounded, so that each value represents the midpoint of data classes, e.g. 1 is the midpoint of the class 0.5–1.5, 2 is the midpoint of 1.5–2.5, 3 is the midpoint of 2.5–3.5, etc. With the data given, the middle value falls somewhere in the class 3.5–4.5, and interpolation is used to estimate it:

Optional argument interval represents the class interval, and defaults to 1. Changing the class interval naturally will change the interpolation:

This function does not check whether the data points are at least interval ein Teil.

CPython implementation detail: Under some circumstances, median_grouped() may coerce data points to floats. This behaviour is likely to change in the future.

“Statistics for the Behavioral Sciences”, Frederick J Gravetter and Larry B Wallnau (8th Edition).

The SSMEDIAN function in the Gnome Gnumeric spreadsheet, including this discussion.

Return the single most common data point from discrete or nominal data. The mode (when it exists) is the most typical value and serves as a measure of central location.

If there are multiple modes with the same frequency, returns the first one encountered in the data. If the smallest or largest of those is desired instead, use min(multimode(data)) or max(multimode(data)) . If the input data is empty, StatisticsError is raised.

mode assumes discrete data and returns a single value. This is the standard treatment of the mode as commonly taught in schools:

The mode is unique in that it is the only statistic in this package that also applies to nominal (non-numeric) data:

Changed in version 3.8: Now handles multimodal datasets by returning the first mode encountered. Formerly, it raised StatisticsError when more than one mode was found.

Return a list of the most frequently occurring values in the order they were first encountered in the data. Will return more than one result if there are multiple modes or an empty list if the data is empty:

Return the population standard deviation (the square root of the population variance). See pvariance() for arguments and other details.

Return the population variance of data, a non-empty sequence or iterable of real-valued numbers. Variance, or second moment about the mean, is a measure of the variability (spread or dispersion) of data. A large variance indicates that the data is spread out a small variance indicates it is clustered closely around the mean.

If the optional second argument mu is given, it is typically the mean of the data. It can also be used to compute the second moment around a point that is not the mean. If it is missing or None (the default), the arithmetic mean is automatically calculated.

Use this function to calculate the variance from the entire population. To estimate the variance from a sample, the variance() function is usually a better choice.

If you have already calculated the mean of your data, you can pass it as the optional second argument mu to avoid recalculation:

Decimals and Fractions are supported:

When called with the entire population, this gives the population variance σ². When called on a sample instead, this is the biased sample variance s², also known as variance with N degrees of freedom.

If you somehow know the true population mean μ, you may use this function to calculate the variance of a sample, giving the known population mean as the second argument. Provided the data points are a random sample of the population, the result will be an unbiased estimate of the population variance.

Return the sample standard deviation (the square root of the sample variance). See variance() for arguments and other details.

Return the sample variance of data, an iterable of at least two real-valued numbers. Variance, or second moment about the mean, is a measure of the variability (spread or dispersion) of data. A large variance indicates that the data is spread out a small variance indicates it is clustered closely around the mean.

If the optional second argument xbar is given, it should be the mean of data. If it is missing or None (the default), the mean is automatically calculated.

Use this function when your data is a sample from a population. To calculate the variance from the entire population, see pvariance() .

Raises StatisticsError if data has fewer than two values.

If you have already calculated the mean of your data, you can pass it as the optional second argument xbar to avoid recalculation:

This function does not attempt to verify that you have passed the actual mean as xbar. Using arbitrary values for xbar can lead to invalid or impossible results.

Decimal and Fraction values are supported:

This is the sample variance s² with Bessel’s correction, also known as variance with N-1 degrees of freedom. Provided that the data points are representative (e.g. independent and identically distributed), the result should be an unbiased estimate of the true population variance.

If you somehow know the actual population mean μ you should pass it to the pvariance() function as the mu parameter to get the variance of a sample.

Divide data in nein continuous intervals with equal probability. Returns a list of n - 1 cut points separating the intervals.

einstellen nein to 4 for quartiles (the default). einstellen nein to 10 for deciles. einstellen nein to 100 for percentiles which gives the 99 cuts points that separate data into 100 equal sized groups. Raises StatisticsError if nein is not least 1.

Das data can be any iterable containing sample data. For meaningful results, the number of data points in data should be larger than nein. Raises StatisticsError if there are not at least two data points.

The cut points are linearly interpolated from the two nearest data points. For example, if a cut point falls one-third of the distance between two sample values, 100 and 112 , the cut-point will evaluate to 104 .

Das method for computing quantiles can be varied depending on whether the data includes or excludes the lowest and highest possible values from the population.

Der Standard method is “exclusive” and is used for data sampled from a population that can have more extreme values than found in the samples. The portion of the population falling below the i-th von m sorted data points is computed as i / (m + 1) . Given nine sample values, the method sorts them and assigns the following percentiles: 10%, 20%, 30%, 40%, 50%, 60%, 70%, 80%, 90%.

Setting the method to “inclusive” is used for describing population data or for samples that are known to include the most extreme values from the population. The minimum value in data is treated as the 0th percentile and the maximum value is treated as the 100th percentile. The portion of the population falling below the i-th von m sorted data points is computed as (i - 1) / (m - 1) . Given 11 sample values, the method sorts them and assigns the following percentiles: 0%, 10%, 20%, 30%, 40%, 50%, 60%, 70%, 80%, 90%, 100%.


Schau das Video: Rechtsseitiger einseitiger Hypothesentest Gehe auf u0026 werde #EinserSchüler (Januar 2022).