Connect with us

OpenAI gründet Sicherheitsrat, trainiert nächste Generation von KI-Modell trotz Kontroversen

Künstliche Intelligenz

OpenAI gründet Sicherheitsrat, trainiert nächste Generation von KI-Modell trotz Kontroversen

mm

OpenAI hat bei der Weiterentwicklung von künstlicher Intelligenz bedeutende Fortschritte gemacht, mit seinem jüngsten Erfolg das GPT-4o-System, das den beliebten Chatbot ChatGPT antreibt. Heute hat OpenAI bekannt gegeben, dass es einen neuen Sicherheitsrat, den OpenAI-Sicherheitsrat, eingerichtet hat und dass es mit der Ausbildung eines neuen KI-Modells begonnen hat.

Wer ist im OpenAI-Sicherheitsrat?

Der neu gegründete OpenAI-Sicherheitsrat zielt darauf ab, Anleitung und Aufsicht bei kritischen Sicherheits- und Sicherheitsentscheidungen im Zusammenhang mit den Projekten und Betrieben des Unternehmens zu bieten. Das primäre Ziel des Sicherheitsrats ist es, sicherzustellen, dass OpenAIs KI-Entwicklungspraktiken der Sicherheit Priorität einräumen und mit ethischen Grundsätzen übereinstimmen. Der Sicherheitsrat besteht aus einer vielfältigen Gruppe von Personen, darunter OpenAI-Führungskräfte, Vorstandsmitglieder und technische und politische Experten.

Bekannte Mitglieder des OpenAI-Sicherheitsrats sind:

  • Sam Altman, CEO von OpenAI
  • Bret Taylor, Vorsitzender von OpenAI
  • Adam D’Angelo, CEO von Quora und OpenAI-Vorstandsmitglied
  • Nicole Seligman, ehemalige Sony-Justiziarin und OpenAI-Vorstandsmitglied

In seiner Anfangsphase wird der neue Sicherheits- und Sicherheitsausschuss sich auf die Bewertung und Stärkung der bestehenden Sicherheitsprozesse und -sicherheitsvorkehrungen von OpenAI konzentrieren. Der OpenAI-Sicherheitsrat hat eine Frist von 90 Tagen gesetzt, um Empfehlungen an den Vorstand zur Verbesserung der KI-Entwicklungspraktiken und Sicherheitssysteme des Unternehmens zu geben. Sobald die Empfehlungen angenommen werden, plant OpenAI, sie in einer Weise zu veröffentlichen, die mit Sicherheits- und Sicherheitsüberlegungen vereinbar ist.

Ausbildung des neuen KI-Modells

Parallel zur Einrichtung des OpenAI-Sicherheitsrats hat OpenAI bekannt gegeben, dass es mit der Ausbildung seines nächsten Modells begonnen hat. Dieses neueste KI-Modell soll die Fähigkeiten des aktuellen GPT-4-Systems übertreffen, das derzeit ChatGPT zugrunde liegt. Obwohl Details über das neue KI-Modell rar sind, hat OpenAI gesagt, dass es die Branche in Bezug auf Fähigkeiten und Sicherheit anführen wird.

Die Entwicklung dieses neuen KI-Modells unterstreicht das schnelle Tempo der Innovation im Bereich der künstlichen Intelligenz und das Potenzial für künstliche allgemeine Intelligenz (AGI). Da KI-Systeme fortschrittlicher und leistungsfähiger werden, ist es von entscheidender Bedeutung, der Sicherheit Priorität einzuräumen und sicherzustellen, dass diese Technologien verantwortungsvoll entwickelt werden.

Neue Kontroversen und Abgänge bei OpenAI

OpenAIs erneuter Fokus auf Sicherheit kommt in einer Zeit innerer Unruhen und öffentlicher Kritik. In den vergangenen Wochen hat das Unternehmen Kritik aus den eigenen Reihen erfahren, als der Forscher Jan Leike zurücktrat und Bedenken äußerte, dass die Sicherheit gegenüber der Entwicklung von “glänzenden Produkten” zurückgestellt worden sei. Leikes Rücktritt wurde von dem Abgang von Ilya Sutskever, OpenAIs Mitbegründer und Chef-Wissenschaftler, gefolgt.

Die Abgänge von Leike und Sutskever haben Fragen über die Prioritäten des Unternehmens und seinen Ansatz zur KI-Sicherheit aufgeworfen. Die beiden Forscher leiteten gemeinsam OpenAIs “Superalignment”-Team, das sich mit langfristigen KI-Risiken befasste. Nach ihrem Rücktritt wurde das Superalignment-Team aufgelöst, was Bedenken über das Engagement des Unternehmens für die Sicherheit weiter schürte.

Darüber hinaus hat OpenAI Vorwürfe wegen der Nachahmung von Stimmen in seinem ChatGPT-Chatbot erhalten. Einige Benutzer behaupten, dass die Stimme des Chatbots eine verblüffende Ähnlichkeit mit der von Schauspielerin Scarlett Johansson aufweist. Obwohl OpenAI eine absichtliche Nachahmung von Johansson abstreitet, hat der Vorfall eine breitere Diskussion über die ethischen Auswirkungen von KI-generiertem Inhalt und das Potenzial für Missbrauch ausgelöst.

Eine breitere Diskussion über KI-Ethik

Da sich das Feld der künstlichen Intelligenz weiterhin rasch entwickelt, ist es für Unternehmen wie OpenAI von entscheidender Bedeutung, in einen kontinuierlichen Dialog und eine Zusammenarbeit mit Forschern, politischen Entscheidungsträgern und der Öffentlichkeit zu treten, um sicherzustellen, dass KI-Technologien verantwortungsvoll und mit robusten Sicherheitsvorkehrungen entwickelt werden. Die Empfehlungen des OpenAI-Sicherheitsrats und OpenAIs Engagement für Transparenz werden zur breiteren Diskussion über KI-Governance beitragen und die Zukunft dieser transformierenden Technologie mitgestalten, aber nur die Zeit wird zeigen, was daraus resultiert.

Alex McFarland ist ein KI-Journalist und Schriftsteller, der die neuesten Entwicklungen im Bereich der künstlichen Intelligenz erforscht. Er hat mit zahlreichen KI-Startups und Veröffentlichungen weltweit zusammengearbeitet.