Babbitt News veröffentlichte am 26. Mai in der Economic Daily einen Artikel mit dem Titel „Governance and Improvement of Artificial Intelligence Large Models in Development“. In dem Artikel heißt es, dass Technologie ein zweischneidiges Schwert ist: Je größer die Fähigkeiten großer Modelle mit künstlicher Intelligenz sind, desto größer ist der Schaden, wenn sie missbraucht wird. Derzeit werden Tools wie ChatGPT verwendet, um gefälschte Nachrichten, gefälschte Fotos und Videos zu generieren und sogar Straftaten wie Betrug zu begehen, was Bedenken hinsichtlich der Sicherheit großer Modelle aufkommen lässt. Eine Reihe von Experten sagten, dass Wertedesign nicht als der einzige Weg zur Governance betrachtet werden sollte; „von der Forderung, dass große Modelle künstlicher Intelligenz ethisch sein müssen, bis hin zum wirklich ethischen Aufbau künstlicher Intelligenz.“ Zeng Yi, Forscher am Institut für Automatisierung, Die Chinesische Akademie der Wissenschaften sagte, dass in Zukunft allgemeine künstliche Intelligenz und die ethischen und sicherheitsrelevanten Fragen der Superintelligenz berücksichtigt und vorerst vorbereitet werden sollten.
Babbitt-Neuigkeiten