Root NationNachrichtenIT-NeuigkeitenOpenAI arbeitet mit dem Pentagon an neuen Cybersicherheitstools

OpenAI arbeitet mit dem Pentagon an neuen Cybersicherheitstools

-

OpenAI, der Entwickler von ChatGPT, hat begonnen, mit dem US-Verteidigungsministerium zusammenzuarbeiten, um Tools und Dienste für das Militär zu entwickeln. Diese Nachricht kam einige Tage später Gesellschaft hat seine Nutzungsbedingungen aktualisiert, um eine Klausel zu entfernen, die den Einsatz seiner KI für militärische Zwecke verbietet.

Laut Bloomberg arbeitet OpenAI mit dem Verteidigungsministerium und der Defense Advanced Research Projects Agency (DARPA) an Open-Source-Cybersicherheitstools für die Regierung. Es ist Teil des AI Cyber ​​Challenge (AIxCC)-Programms, das DARPA Ende letzten Jahres gestartet hat.

OpenAI

AIxCC bringt führende KI-Unternehmen zusammen, die mit DARPA zusammenarbeiten, um ihre führenden Technologien und Fachkenntnisse verfügbar zu machen und die Konkurrenz herauszufordern. Zusätzlich zu OpenAI wird Anthropic mit DARPA zusammenarbeiten, Google dass Microsoft, und ihre Bemühungen werden sich auf die Unterstützung bei der Entwicklung modernster Cybersicherheitssysteme konzentrieren.

Dem Bericht zufolge befindet sich OpenAI auch in Gesprächen mit der US-Regierung, um einige drängendere Probleme im Land zu lösen. Anna Makanju, Vizepräsidentin für globale Angelegenheiten bei OpenAI, sagte jedoch, dass OpenAI weiterhin ein Verbot aufrechterhält, „seine Technologie zur Entwicklung von Waffen, zur Zerstörung von Eigentum oder zur Schädigung von Menschen zu nutzen“.

OpenAI

Ich möchte Sie daran erinnern, dass wir kürzlich geschrieben haben, dass sich OpenAI entwickelt hat eine neue Strategie, die sicherstellen soll, dass ihre KI nicht zur Verbreitung von Desinformation im Zusammenhang mit der US-Präsidentschaftswahl genutzt wird. Sam Altman, CEO von OpenAI, betonte, dass die Wahl eine große Sache sei und er finde es gut, dass das Unternehmen besorgt sei und daran arbeite.

Dies geschah nur einen Monat nach Bings künstlicher Intelligenz Microsoft wurde beschuldigt, auf Fragen zu einigen Wahlen im Jahr 2023 falsche Antworten gegeben zu haben. Microsoft Außerdem wurde ein neues Deepfake-Erkennungstool eingeführt, das politischen Parteien dabei helfen soll, die Authentizität oder umgekehrt die Falschheit einiger Bilder oder politischer Werbung nachzuweisen.

Lesen Sie auch:

QuelleNeowin
Anmelden
Benachrichtigen Sie über
Gast

0 Ihre Nachricht
Eingebettete Bewertungen
Alle Kommentare anzeigen