Meta hat einen Durchbruch erzielt, der den Bereich der künstlichen Intelligenz revolutionieren könnte. Das Unternehmen hat eine Reihe neuer KI-Modelle aus seiner Forschungsabteilung veröffentlicht.
Zu den Modellen gehört ein “Self-Taught Evaluator”, der die gleiche “chain of thought”-Technik wie die o1-Modelle von OpenAI verwendet, um andere KI-Reaktionen präzise zu bewerten.
Durch die systematische Zerlegung von Aufgaben liefert der Evaluator genauere Beurteilungen, was zu einer höheren Modellzuverlässigkeit und zu erheblichen Verbesserungen der KI-Leistung in verschiedenen Anwendungen führen kann.
Wie ein Self-Taught Evaluator funktioniert
Die ausschließliche Verwendung von KI-generierten Daten zum Trainieren des Evaluator-Modells stellt eine deutliche Abkehr von herkömmlichen Methoden dar, da die Forscher von Meta so die menschliche Beteiligung in einem frühen Stadium des Entwicklungsprozesses umgehen können.
Dieser Durchbruch hat die Tür für die Schaffung einer sich selbst verwaltenden digitalen Intelligenz geöffnet, die in der Lage ist, unabhängig zu lernen und sich selbst zu verbessern.
Die Fähigkeit von KI-Systemen, sich gegenseitig zuverlässig zu bewerten, bietet einen wertvollen Einblick in eine Zukunft, in der digitale Assistenten Aufgaben unabhängig und ohne menschliche Aufsicht oder Intervention ausführen können.
Wir hoffen, dass die KI in dem Maße, in dem sie immer übermenschlicher wird, auch immer besser darin wird, ihre Arbeit zu überprüfen, so dass sie tatsächlich besser ist als der durchschnittliche Mensch.
Jason Weston
Viele Experten auf dem Gebiet der künstlichen Intelligenz gehen davon aus, dass hochentwickelte Agenten entstehen werden, die durch Selbsteinschätzung und kontinuierliche Verbesserung eine außergewöhnliche Genauigkeit erreichen können.
“Wir bewegen uns auf eine Ära immer fortschrittlicherer künstlicher Intelligenz zu. Unser Ziel ist es, autonome Agenten zu schaffen, die durch ihre Fähigkeit, ihre eigene Arbeit zu überprüfen und zu verfeinern, die menschlichen Genauigkeitsstandards nicht nur erreichen, sondern möglicherweise sogar übertreffen können”, erklärt der Forscher Jason Weston.
Was kommt als Nächstes für autonome KI-Agenten?
Während Unternehmen wie Google und Anthropic ähnliche Konzepte mit Hilfe von RLAIF-Alternativen (Reinforcement Learning from Human Feedback) erforscht haben, machen sie ihre Modelle in der Regel nicht öffentlich zugänglich, um sie zu überprüfen oder zu replizieren.
#Facebook owner Meta said on Friday it was releasing a batch of new AI models from its research division, including a "Self-Taught Evaluator" that may offer a path toward less human involvement in the AI development process.https://t.co/YBNUgc5hpw
— The Hindu (@the_hindu) October 19, 2024
Meta hat seinen Self-Taught Evaluator und andere fortschrittliche KI-Modelle öffentlich zugänglich gemacht, um einen besseren Zugang zu der Technologie zu ermöglichen, die die autonome KI-Innovation vorantreibt, und unterstreicht damit sein Engagement für Transparenz und Zusammenarbeit.