Sam Altman, der CEO von OpenAI, hat auf dem KI-Gipfel in Neu-Delhi erneut vor den Gefahren einer möglichen Super-KI gewarnt. Er plädiert für die Schaffung einer internationalen Aufsichtsbehörde, ähnlich der Internationalen Atomenergiebehörde (IAEA), um die Entwicklung und den Einsatz von Künstlicher Intelligenz zu regulieren.
Altman betonte, dass es dringend notwendig sei, Regeln und Sicherheitsvorkehrungen zu etablieren, um die Risiken, die mit einer Super-KI verbunden sind, zu minimieren. Die Diskussion über diese Themen sei von großer Bedeutung, insbesondere angesichts der zunehmenden Warnungen über die potenziell zerstörerischen Fähigkeiten von KI-Systemen, die sich durch ihre eigene Programmierung weiterentwickeln könnten.
Die Zukunft der KI: Ein Blick auf mögliche Entwicklungen
Altman äußerte die Befürchtung, dass die Menschheit möglicherweise nur wenige Jahre von den ersten Versionen einer solchen Superintelligenz entfernt sei. Er prognostizierte, dass bis Ende 2028 ein größerer Teil der intellektuellen Kapazität der Welt in Rechenzentren konzentriert sein könnte, als außerhalb. Diese Entwicklung könnte gravierende Auswirkungen auf den Arbeitsmarkt haben.
Gesellschaftliche Debatte über Risiken notwendig
Zusätzlich wies Altman auf die potenziellen Gefahren hin, die mit einer Super-KI verbunden sind. Dazu gehören die Möglichkeit, dass Diktatoren diese Technologie missbrauchen, die Schaffung neuer Krankheitserreger als Biowaffen oder die Entstehung neuer Kriegsformen. Er forderte eine umfassende gesellschaftliche Debatte, um vorbereitet zu sein und nicht von den Entwicklungen überrascht zu werden.
„`
Bildquelle: ai-generated