OpenAI ignoriert eigene Experten beim Sex-ChatGPT
OpenAI hat ein Problem — und es ist selbstgemacht. Das hauseigene Beratergremium für psychische Gesundheit hat einstimmig gegen den Launch des sogenannten "Adult Mode" in ChatGPT gestimmt. OpenAI hat es trotzdem durchgezogen.
Laut Wall Street Journal waren die handverlesenen Berater regelrecht "am Ausflippen". Schon im Januar warnten sie: KI-generierte Erotik könne ungesunde emotionale Abhängigkeit von ChatGPT fördern. Nicht einer stimmte dafür. Null von null. Einstimmig dagegen.
Und trotzdem sitzt der "Adult Mode" jetzt im Produkt. OpenAI stellt also ein Expertengremium zusammen, zahlt diese Leute vermutlich gut, hört sich deren Meinung an — und macht dann exakt das Gegenteil. Man fragt sich: Wozu existiert dieses Gremium überhaupt?
Das Muster ist bekannt. Tech-Konzerne schmücken sich mit Ethik-Beiräten und Safety-Teams, bis deren Empfehlungen dem Wachstum im Weg stehen. Dann wird durchregiert. Bei Google flog das KI-Ethik-Team raus, bei OpenAI wird es einfach überstimmt. Das Ergebnis ist dasselbe: Sicherheitstheater.