Root NationSpieleGaming-NeuigkeitenCall of Duty wird KI verwenden, um Sprachchats zu moderieren

Call of Duty wird KI verwenden, um Sprachchats zu moderieren

-

Ego-Shooter wie Call of Duty sind für die Giftigkeit ihrer Lobbys und Voice-Chats berüchtigt. Laut Umfragen ist die Fangemeinde der Franchise die negativste in der Spielebranche; Eine Fehde zwischen zwei Spielern führte einmal dazu, dass ein Spezialeinheitsteam einberufen wurde. Activision versucht seit Jahren, dieses Verhalten zu bekämpfen, und ein Teil der Lösung könnte mit künstlicher Intelligenz zu tun haben.

Call of Duty wird KI verwenden, um Sprachchats zu moderieren

Activision hat sich mit Modulate zusammengetan, um „In-Game-Voice-Chat-Moderation“ in seine Spiele zu integrieren. Ein neues Moderationssystem mit künstlicher Intelligenz namens ToxMod soll Verhaltensweisen wie Diskriminierung und Belästigung in Echtzeit erkennen.

Der erste Betatest von ToxMod in Nordamerika beginnt heute. Es ist in Call of Duty: Modern Warfare II und Call of Duty: Warzone aktiv. Die „vollständige weltweite Veröffentlichung“ (ohne Asien, wie in der Pressemitteilung angegeben) erfolgt am 10. November mit der Veröffentlichung von Call of Duty: Modern Warfare III, dem neuen Teil der Franchise in diesem Jahr.

Die Pressemitteilung von Modulate geht nicht näher auf die genaue Funktionsweise von ToxMod ein. An Seite? ˅ Das Unternehmen stellt fest, dass das Tool „Voice-Chat moderiert, um schlechtes Verhalten zu melden, die Nuancen jedes Gesprächs analysiert, um Toxizität zu identifizieren, und es Moderatoren ermöglicht, schnell auf jeden Vorfall zu reagieren, indem es relevanten und genauen Kontext bereitstellt.“ In einem aktuellen Interview sagte der CEO des Unternehmens, dass das Tool über die einfache Transkription hinausgehen soll. Es berücksichtigt auch Faktoren wie die Emotionen und die Lautstärke des Spielers, um zwischen böswilligen und humorvollen Bemerkungen zu unterscheiden.

Call of Duty wird KI verwenden, um Sprachchats zu moderieren

Es ist erwähnenswert, dass das Tool (zumindest im Moment) auf der Grundlage seiner Daten keine Maßnahmen gegen Spieler ergreift, sondern nur Berichte an Activision-Moderatoren sendet. Die Beteiligung des Menschen wird wahrscheinlich weiterhin ein wichtiger Schutzfaktor bleiben, da Untersuchungen gezeigt haben, dass Spracherkennungssysteme in der Art und Weise, wie sie auf Benutzer mit unterschiedlicher Rassenidentität und unterschiedlichem Akzent reagieren, eine Voreingenommenheit aufweisen können.

Lesen Sie auch:

QuelleDer Rand
Anmelden
Benachrichtigen Sie über
Gast

0 Ihre Nachricht
Eingebettete Bewertungen
Alle Kommentare anzeigen
Andere Artikel
Abonnieren Sie Updates
Beliebt jetzt