01.06.2011, 21:46
So!
Nachdem ich anlässlich dieses Threads mal wieder in statistischen Gefilden unterwegs war, ist mir gerade ein völlig anderer Ratingansatz eingefallen, der sich an Verteilungen orientiert. Eigentlich gefällt er mir sehr, sehr gut, aber im Laufe des Postens sind mir leider Schwächen aufgefallen. Weil ich den völlig anderen Ansatz aber sehr gut finde, poste ich meine gesammelten Gedanken dazu jetzt trotzdem. Vielleicht findet sich ja jemand, der den Faden aufnimmt und daraus erfolgreich ein tolles neues Ratingsystem strickt .
Gehen wir davon aus, dass die Lösungszeiten beim Ü-Rätsel normalverteilt um den Mittelwert sind (da es auf der einen Seite der Glockenkurve eine natürliche Grenze gibt, liegt hier auch direkt ein Problem, aber dazu mehr am Ende). Wie wäre es jetzt, wenn man am Ende eines jeden Tages einfach ausrechnet, wieviele Standardabweichungen er über oder unter dem Mittelwert liegt. Damit könnte man dann wieder allerlei Dinge anstellen: Median- oder Mittelwertberechnungen über alle Teilnahmen der Person (Mittelwertberechnung ist statistisch bestimmt wieder nicht wirklich zulässig, aber egal ), Auszeichnungsvergabe für erstmaliges und/oder x-maliges Überschreiten einer Standardabweichungsschwelle, etc...
Eigentlich bin ich total begeistert von dem Ansatz, wenn da nicht das eingangs angesprochene Problem wäre, dass die Zeiten mit Sicherheit keiner Normalverteilung entsprechen. Da haben wir zum einen die angesprochene natürliche Grenze auf der einen Seite, weil man eben einfach nicht schneller als ein gewisser Wert sein kann, langsamer geht dagegen immer . Nun stelle ich mir das laienhaft so vor, dass die eine Seite der Glockenkurve aus diesem Schnell-Klick-Limit heraus gestaucht ist. Die mir vorschwebende Lösung wäre ein logarithmisches Entstauchen . Ob das praktikabel und halbwegs korrekt ist, weiß ich aber nicht genau.
Leider gibt es auch auf der anderen Seite der Glockenkurve ein Problem: Die Zeiten der Fehlversuchler mit einem Aufschlag der Durchschnittszeit zu werten, finde ich in diesem Fall sehr praktikabel, es bleibt aber das Problem der Nichtlöser. Zur Durchschnittswertberechnung müssten diesen auch Zeiten zugewiesen werden. Welche Zeit ist da dann aber eine faire und wie wirkt sich das "Zusammenklumpen" der Nichtlöser auf die Gesamtverteilung aus? Die beiden Fragen kann ich leider nicht beantworten, weshalb das ganze mit meinen Fähigkeiten eher im Ansatz stecken geblieben ist.
Aber weil ich die Idee trotzdem toll finde, musstet ihr nun meinen 633sten Senf ertragen .
Schönen Gruß,
Calavera
Nachdem ich anlässlich dieses Threads mal wieder in statistischen Gefilden unterwegs war, ist mir gerade ein völlig anderer Ratingansatz eingefallen, der sich an Verteilungen orientiert. Eigentlich gefällt er mir sehr, sehr gut, aber im Laufe des Postens sind mir leider Schwächen aufgefallen. Weil ich den völlig anderen Ansatz aber sehr gut finde, poste ich meine gesammelten Gedanken dazu jetzt trotzdem. Vielleicht findet sich ja jemand, der den Faden aufnimmt und daraus erfolgreich ein tolles neues Ratingsystem strickt .
Gehen wir davon aus, dass die Lösungszeiten beim Ü-Rätsel normalverteilt um den Mittelwert sind (da es auf der einen Seite der Glockenkurve eine natürliche Grenze gibt, liegt hier auch direkt ein Problem, aber dazu mehr am Ende). Wie wäre es jetzt, wenn man am Ende eines jeden Tages einfach ausrechnet, wieviele Standardabweichungen er über oder unter dem Mittelwert liegt. Damit könnte man dann wieder allerlei Dinge anstellen: Median- oder Mittelwertberechnungen über alle Teilnahmen der Person (Mittelwertberechnung ist statistisch bestimmt wieder nicht wirklich zulässig, aber egal ), Auszeichnungsvergabe für erstmaliges und/oder x-maliges Überschreiten einer Standardabweichungsschwelle, etc...
Eigentlich bin ich total begeistert von dem Ansatz, wenn da nicht das eingangs angesprochene Problem wäre, dass die Zeiten mit Sicherheit keiner Normalverteilung entsprechen. Da haben wir zum einen die angesprochene natürliche Grenze auf der einen Seite, weil man eben einfach nicht schneller als ein gewisser Wert sein kann, langsamer geht dagegen immer . Nun stelle ich mir das laienhaft so vor, dass die eine Seite der Glockenkurve aus diesem Schnell-Klick-Limit heraus gestaucht ist. Die mir vorschwebende Lösung wäre ein logarithmisches Entstauchen . Ob das praktikabel und halbwegs korrekt ist, weiß ich aber nicht genau.
Leider gibt es auch auf der anderen Seite der Glockenkurve ein Problem: Die Zeiten der Fehlversuchler mit einem Aufschlag der Durchschnittszeit zu werten, finde ich in diesem Fall sehr praktikabel, es bleibt aber das Problem der Nichtlöser. Zur Durchschnittswertberechnung müssten diesen auch Zeiten zugewiesen werden. Welche Zeit ist da dann aber eine faire und wie wirkt sich das "Zusammenklumpen" der Nichtlöser auf die Gesamtverteilung aus? Die beiden Fragen kann ich leider nicht beantworten, weshalb das ganze mit meinen Fähigkeiten eher im Ansatz stecken geblieben ist.
Aber weil ich die Idee trotzdem toll finde, musstet ihr nun meinen 633sten Senf ertragen .
Schönen Gruß,
Calavera