Let's dive in...
Was bedeutet es, wenn AI die menschliche Intelligenz übertrifft, und wie kann dies gemessen werden? Menschliche AI, oft als AGI (Artificial General Intelligence) oder ASI (Artificial Super Intelligence) bezeichnet, wurde traditionell anhand des Turing-Tests definiert. Dieser Test, vorgeschlagen von dem englischen Mathematiker und Computerwissenschaftler Alan Turing im Jahr 1950, zielt darauf ab, festzustellen, ob eine Maschine Intelligenz auf einem menschenähnlichen Niveau zeigen kann. Der Test beinhaltet eine Situation, in der ein menschlicher Richter entscheiden muss, ob er mit einem Menschen oder einer Maschine interagiert, ohne dies im Vorfeld zu wissen. Wird die Maschine nicht vom Menschen unterschieden, gilt sie als bestanden.
In den vergangenen 12 Monaten dürfte der Turing-Test inoffiziell bestanden worden sein, dennoch behauptet niemand, dass AGI oder ASI bereits erreicht worden sind. Es bedarf also differenzierterer Messmethoden.
Mit der Entwicklung von Large Language Models (LLMs) wie GPT-3 werden neue Tests verwendet, um deren Leistungsfähigkeit zu messen. Dabei ist es wichtig, dass die Testfragen nicht bereits im Trainingsmaterial der LLMs enthalten waren.
Dr. Alan D. Thompson hat 2020 seine Position als Vorsitzender der «Gifted Families» bei Mensa International aufgegeben, nachdem er die Fähigkeiten von GPT-3 im Vergleich zu seinen hochbegabten Klienten gesehen hatte. Er ist ein Beispiel für jemanden, der sich intensiv mit diesem Thema beschäftigt hat.
Weitere Informationen zu seiner Arbeit und seinen Beobachtungen findest du hier: https://lifearchitect.ai/iq-testing-ai/
Insgesamt zeigt sich, dass die Messung von AI-Intelligenz ein komplexes und sich ständig weiterentwickelndes Feld ist, das über den traditionellen Turing-Test hinausgeht.
Hier geht es zum gesamten Artikel: LLM Benchmarks: AI & LLMs entmystifiziert für Entscheidungsträger