
Am Donnerstag sandte der Vorsitzende des Rechtsausschusses des Repräsentantenhauses, Jim Jordan (R-OH), Briefe an 16 amerikanische Technologieunternehmen, darunter Google und OpenAI, in denen er um frühere Kommunikationen mit der Biden-Regierung bat, die darauf hindeuten könnten, dass der ehemalige Präsident mit Unternehmen zusammengearbeitet hat, um "rechtmäßige Sprache" in KI-Produkten zu "zensieren".
Die Top-Technologieberater der Trump-Regierung hatten zuvor signalisiert, dass sie mit Big Tech über "KI-Zensur" kämpfen würden, was scheinbar die nächste Phase im Kulturkrieg zwischen Konservativen und dem Silicon Valley darstellt. Jordan führte zuvor eine Untersuchung durch, ob die Biden-Regierung und Big Tech zusammengearbeitet haben, um konservative Stimmen auf sozialen Medienplattformen zum Schweigen zu bringen. Jetzt richtet er sein Augenmerk auf KI-Unternehmen - und deren Vermittler.
In Briefen an Technologie-Executives, darunter Google CEO Sundar Pichai, OpenAI CEO Sam Altman und Apple CEO Tim Cook, wies Jordan auf einen Bericht hin, den sein Ausschuss im Dezember veröffentlichte und der angeblich die Bemühungen der Biden-Harris-Regierung aufdeckte, KI zu kontrollieren, um Sprache zu unterdrücken.
In dieser neuesten Untersuchung bat Jordan Adobe, Alphabet, Amazon, Anthropic, Apple, Cohere, IBM, Inflection, Meta, Microsoft, Nvidia, OpenAI, Palantir, Salesforce, Scale AI und Stability AI um Informationen. Sie haben bis zum 27. März Zeit, diese bereitzustellen.
TechCrunch bat die Unternehmen um Kommentar. Die meisten reagierten nicht sofort. Nvidia, Microsoft und Stability AI lehnten einen Kommentar ab.
Ein bemerkenswerter Auslass in Jordans Liste ist das KI-Labor von Milliardär Elon Musk, xAI. Das könnte daran liegen, dass Musk, ein enger Verbündeter von Trump, ein Technologieführer ist, der an vorderster Front in Diskussionen über KI-Zensur steht.
Es war abzusehen, dass konservative Gesetzgeber die angebliche KI-Zensur genauer unter die Lupe nehmen würden. Vielleicht in Erwartung einer Untersuchung wie der von Jordan haben mehrere Technologieunternehmen ihre KI-Chatbots geändert, um politisch sensible Anfragen zu behandeln.
Zu Beginn dieses Jahres kündigte OpenAI an, die Art und Weise zu ändern, wie es KI-Modelle trainiert, um mehr Perspektiven darzustellen und sicherzustellen, dass ChatGPT keine bestimmten Standpunkte zensiert. OpenAI bestreitet, dass dies ein Versuch war, die Trump-Regierung zu besänftigen, sondern vielmehr eine Anstrengung, die Kernwerte des Unternehmens zu festigen.
Anthropic hat wiederum erklärt, dass sein neuestes KI-Modell, Claude 3.7 Sonnet, weniger Fragen beantworten und auf kontroverse Themen nuanciertere Antworten geben wird.
Andere Unternehmen haben sich langsamer dazu entschlossen, wie ihre KI-Modelle politische Themen behandeln. Vor der US-Wahl 2024 gab Google bekannt, dass sein Gemini-Chatbot nicht auf politische Anfragen reagieren würde. Selbst lange nach der Wahl stellte TechCrunch fest, dass der Chatbot nicht konsistent auf selbst einfache politische Fragen wie "Wer ist der derzeitige Präsident?" antwortete.
Einige Tech-Executives, darunter Meta CEO Mark Zuckerberg, haben die Vorwürfe konservativer Kreise über Zensur im Silicon Valley angeheizt, indem sie behaupteten, dass die Biden-Regierung sie unter Druck gesetzt habe, bestimmte Inhalte wie COVID-19-Fehlinformationen zu unterdrücken.