Skip to content

Mitarbeiter von OpenAI und DeepMind fordern besseren Whistleblower-Schutz

  • Mitarbeiter von OpenAI und DeepMind fordern besseren Whistleblower-Schutz und sichere Meldewege.
  • Führende KI-Experten unterstützen den offenen Brief und warnen vor den potenziellen Gefahren der KI.

Eine Gruppe von aktuellen und ehemaligen Mitarbeitern der führenden KI-Unternehmen OpenAI und DeepMind hat in einem offenen Brief auf mangelnden Whistleblower-Schutz und die Angst vor Vergeltungsmaßnahmen hingewiesen.

Mehr als ein Dutzend aktueller und ehemaliger Mitarbeiter von OpenAI, Googles DeepMind und Anthropic forderten sichere Meldewege für Mitarbeiter, um Bedenken sowohl intern als auch öffentlich äußern zu können. Vertraulichkeitsvereinbarungen blockieren laut den Unterzeichnern die öffentliche Diskussion über potenzielle Gefahren der KI.

„Die Personen mit dem meisten Wissen über die Funktionsweise von KI-Systemen und die damit verbundenen Risiken können nicht frei sprechen“, sagte William Saunders, ein ehemaliger OpenAI-Mitarbeiter, der den Brief unterzeichnete.

Neben Saunders haben sechs weitere ehemalige OpenAI-Mitarbeiter den Brief unterzeichnet. Außerdem haben vier aktuelle OpenAI-Mitarbeiter sowie ein ehemaliger und ein aktueller Mitarbeiter von DeepMind ihre Namen hinzugefügt. Sechs der Unterzeichner blieben anonym.

Drei führende KI-Experten unterstützten den Brief: Der KI-Wissenschaftler Stuart Russell sowie Yoshua Bengio und Geoffrey Hinton, die wegen ihrer frühen Durchbruchsforschung als „Godfathers der KI“ bekannt sind. Hinton verließ Google letztes Jahr, um freier über die Risiken der Technologie sprechen zu können.

Hinton und andere warnen seit Jahren vor den potenziellen Gefahren der KI für die Menschheit. Einige KI-Forscher befürchten, dass die Technologie außer Kontrolle geraten und so gefährlich wie Pandemien oder nukleare Kriege werden könnte. Andere sind moderater in ihren Bedenken, fordern jedoch mehr Regulierung der KI.

OpenAI stimmte in einer Reaktion auf den Brief am Dienstag zu, dass es staatliche Regulierung geben sollte. „Wir sind stolz auf unsere Erfolgsbilanz bei der Bereitstellung der fähigsten und sichersten KI-Systeme und glauben an unseren wissenschaftlichen Ansatz zur Risikobewältigung“, sagte eine OpenAI-Sprecherin. „Wir stimmen zu, dass eine rigorose Debatte angesichts der Bedeutung dieser Technologie entscheidend ist, und wir werden weiterhin mit Regierungen, der Zivilgesellschaft und anderen Gemeinschaften weltweit zusammenarbeiten.“

DeepMind und Anthropic, das von Amazon unterstützt wird, reagierten am Dienstag nicht auf Anfragen nach Kommentaren.

OpenAI, ein 2015 gegründetes Startup, veröffentlichte 2022 ChatGPT für die Öffentlichkeit. Der Chatbot wurde eines der viralsten KI-Produkte und half, OpenAI zu einem Multimilliarden-Dollar-Unternehmen zu machen. Sam Altman, der Leiter von OpenAI und einer der Architekten der KI-Revolution, hat erklärt, dass er die Technologie sicher entwickeln möchte.

Die Unterzeichner des Briefes am Dienstag sagten, dass aktuelle und ehemalige Mitarbeiter zu den wenigen gehören, die die Unternehmen zur Rechenschaft ziehen können, da es keine umfassende staatliche Aufsicht über KI-Unternehmen gibt. Eine ihrer Sorgen ist, dass Menschen die Kontrolle über autonome KI-Systeme verlieren könnten, die wiederum die Menschheit auslöschen könnten.

Die Unterzeichner fordern die Unternehmen auf, den Mitarbeitern anonyme Berichtswege zu ermöglichen, nicht gegen Whistleblower vorzugehen und sie nicht zu Vereinbarungen zu zwingen, die sie zum Schweigen bringen könnten. Sie wollen, dass die KI-Unternehmen transparenter werden und sich mehr auf Sicherheitsmaßnahmen konzentrieren.

OpenAI erklärte am Dienstag, dass es eine anonyme Integritätshotline gibt und dass keine Technologie freigegeben wird, bevor die notwendigen Sicherheitsvorkehrungen getroffen wurden.

Der ehemalige OpenAI-Mitarbeiter Daniel Kokotajlo, der den Brief ebenfalls unterzeichnete, sagte, dass die Unternehmen die Risiken der KI in ihrem Wettlauf um die Entwicklung der Technologie ignorieren. „Ich habe mich entschieden, OpenAI zu verlassen, weil ich die Hoffnung verloren habe, dass sie verantwortungsbewusst handeln, insbesondere bei der Verfolgung der künstlichen allgemeinen Intelligenz“, sagte er. „Sie und andere haben sich die ‚Move fast and break things‘-Mentalität zu eigen gemacht, und das ist das Gegenteil von dem, was für eine so mächtige und schlecht verstandene Technologie benötigt wird.“

Quelle: Eulerpool Research Systems