Die US-Börsenaufsichtsbehörde SEC hat am Montag Anklage gegen zwei Anlageberater erhoben, weil diese nach Ansicht der Behörde irreführende Aussagen über den Einsatz von künstlicher Intelligenz gemacht haben.
Die SEC beschuldigte den US-Arm des kanadischen Unternehmens Delphia und das in den USA ansässige Unternehmen Global Predictions, gegen aufsichtsrechtliche Marketingregeln verstoßen zu haben oder „AI-Washing“ zu betreiben. Nachdem die Behörde eine Unterlassungsanordnung erlassen hatte, erklärten sich die beiden Unternehmen bereit, die Vorwürfe beizulegen und insgesamt 400.000 US-Dollar an Zivilstrafen zu zahlen.
Die SEC sagte, dass das in Toronto ansässige Unternehmen Delphia von 2019 bis 2023 Anleger und Aufsichtsbehörden über seine KI-Fähigkeiten getäuscht und fälschlicherweise behauptet hat, seine Technologie nutze Kundendaten für intelligente Investitionen. Im Jahr 2023, so die SEC, machte das in San Francisco ansässige Unternehmen Global Predictions irreführende Angaben darüber, ein regulierter KI-Berater zu sein und KI-gestützte Prognosen anzubieten.
„Wir haben festgestellt, dass Delphia und Global Predictions ihren Kunden und potenziellen Kunden gegenüber behauptet haben, dass sie KI auf bestimmte Weise nutzen, obwohl dies in Wirklichkeit nicht der Fall war“, sagte der SEC-Vorsitzende Gary Gensler in der Mitteilung. „Wir haben immer wieder gesehen, dass neue Technologien, wenn sie auf den Markt kommen, bei den Anlegern Begeisterung auslösen und falsche Behauptungen derjenigen hervorrufen können, die vorgeben, diese neuen Technologien zu nutzen.
„Anlageberater sollten die Öffentlichkeit nicht in die Irre führen, indem sie behaupten, dass sie ein KI-Modell verwenden, obwohl dies nicht der Fall ist. Eine solche KI-Wäsche schadet den Anlegern“, fuhr er fort.
„Global Predictions hat voll und ganz mit der Untersuchung kooperiert und freut sich, die Sache hinter sich zu bringen“, sagte Alexander Harmsen, Mitbegründer und CEO von Global Predictions, gegenüber TCN. „Außerdem haben wir in unserem Marketing klargestellt, wie genau wir KI einsetzen“, sagte er und verwies auf einen neuen Blogbeitrag von Global Predictions, in dem der Einsatz von KI erläutert wird.
Delphia reagierte nicht sofort auf die Anfrage von TCN nach einem Kommentar.
Die SEC hat in ihrer Verfolgung dessen, was sie als illegale Wertpapiergeschäfte im Kryptobereich ansieht, nicht nachgelassen – Anfang dieses Monats stimmte die nicht mehr existierende Kryptowährungsbörse ShapeShift zu, 275.000 US-Dollar an Geldstrafen zu zahlen und eine Unterlassungsanordnung zu befolgen, weil sie Nutzern den Handel mit Kryptowährungen erlaubt hatte, ohne sich bei der Behörde als Makler oder Börse registrieren zu lassen -, aber KI nimmt bei den Maßnahmen der Regulierungsbehörde an Bedeutung zu.
Als der Hype um künstliche Intelligenz im Jahr 2023 sprunghaft anstieg, warnte der SEC-Vorsitzende Gary Gensler die Anleger vor der falschen oder irreführenden Kennzeichnung von Produkten oder Dienstleistungen mit künstlichen Intelligenzfunktionen.
„Das Waschen von KI, sei es durch Finanzintermediäre wie Anlageberater und Broker-Händler oder durch Unternehmen, die Geld von der Öffentlichkeit aufnehmen, kann gegen die Wertpapiergesetze verstoßen“, sagte Gensler in einem am Montag veröffentlichten Video. „Jeder mag über KI sprechen, aber wenn es um Anlageberater, Broker-Händler und öffentliche Unternehmen geht, sollten sie sicherstellen, dass das, was sie den Anlegern sagen, der Wahrheit entspricht“.
Ähnlich wie beim „Greenwashing“, bei dem eine Person oder ein Unternehmen ein Projekt als umweltfreundlicher und sozialer anpreist, als es tatsächlich ist, bezieht sich das KI-Washing auf die Behauptung, ein Unternehmen sei KI-gesteuerter oder technologisch fortschrittlicher als in Wirklichkeit.
Letzten Monat wies Gensler auf die Gefahren der generativen KI sowohl in der Realität als auch in der Fiktion hin und bezog sich dabei auf den Film Her von 2013, M3GAN (2023) und The Matrix (1999).
„Sie wollen nicht, dass Ihr Makler oder Berater Ihnen Investitionen empfiehlt, die er auf Pilzen halluziniert hat“, sagte Gensler. „Wenn der Makler oder Berater also ein KI-Modell einsetzt, muss er sicherstellen, dass die Empfehlungen oder Ratschläge des Modells nicht auf Halluzinationen oder ungenauen Informationen beruhen.“