Diese Woche in KI: Leistungsfähigere KI steht bevor, aber werden ihre Vorteile gleichmäßig verteilt sein?

Hallo zusammen, willkommen zum regelmäßigen KI-Newsletter von TechCrunch. Wenn Sie dies jeden Mittwoch in Ihrem Posteingang möchten, melden Sie sich hier an.

Der KI-Nachrichtenzyklus hat sich in dieser Feiertagssaison nicht viel verlangsamt. Zwischen OpenAI's 12 Tagen von "Shipmas" und DeepSeek's großem Modellrelease am Weihnachtstag, könnte man einige neue Entwicklungen verpassen.

Und jetzt wird es nicht langsamer. Am Sonntag sagte OpenAI-CEO Sam Altman in einem Beitrag auf seinem persönlichen Blog, dass er glaubt, OpenAI wisse, wie man allgemeine künstliche Intelligenz (AGI) aufbauen kann und beginnt, sein Ziel auf die Superintelligenz zu richten.

AGI ist ein vager Begriff, aber OpenAI hat seine eigene Definition: „Hochautonome Systeme, die Menschen in den meisten wirtschaftlich wertvollen Tätigkeiten übertreffen.“ Was die Superintelligenz angeht, die Altman als einen Schritt über AGI versteht, sagte er in dem Blogbeitrag, dass sie die Innovation wesentlich beschleunigen könnte, weit über das hinaus, was Menschen alleine erreichen können.

„[OpenAI glaubt weiterhin], dass das iterative Bereitstellen großartiger Werkzeuge in den Händen der Menschen zu großartigen, breit verteilten Ergebnissen führt“, schrieb Altman.

Altman - wie auch der CEO von OpenAI-Rivalen Anthropic, Dario Amodei - ist der optimistischen Überzeugung, dass AGI und Superintelligenz zu Wohlstand und Wohlstand für alle führen werden. Aber angenommen, AGI und Superintelligenz sind überhaupt ohne neue technische Durchbrüche machbar, wie können wir sicher sein, dass sie allen zugute kommen werden?

Ein kürzlich besorgniserregender Datenpunkt ist eine Studie, die von Ethan Mollick, Professor an der Wharton School, Anfang dieses Monats auf X flaggiert wurde. Forscher der National University of Singapore, der University of Rochester und der Tsinghua University untersuchten die Auswirkungen des KI-gestützten Chatbots von OpenAI, ChatGPT, auf Freiberufler in verschiedenen Arbeitsmärkten.

Die Studie identifizierte einen wirtschaftlichen „KI-Wendepunkt“ für verschiedene Berufstypen. Vor dem Wendepunkt steigerte KI die Einkünfte der Freiberufler. Beispielsweise verzeichneten Webentwickler einen Anstieg von rund 65%. Aber nach dem Wendepunkt begann KI, die Freiberufler zu ersetzen. Übersetzer verzeichneten einen etwa 30%igen Rückgang.

Die Studie legt nahe, dass sobald KI beginnt, einen Job zu ersetzen, sie den Kurs nicht umkehrt. Und das sollte uns alle betreffen, wenn tatsächlich leistungsfähigere KI auf dem Vormarsch ist.

Altman schrieb in seinem Beitrag, dass er „ziemlich zuversichtlich“ sei, dass „alle“ die Bedeutung der „Maximierung des breiten Nutzens und der Befähigung“ im Zeitalter von AGI erkennen werden - und der Superintelligenz. Aber was ist, wenn er falsch liegt? Was ist, wenn AGI und Superintelligenz eintreffen und nur Unternehmen etwas davon haben?

Das Ergebnis wird keine bessere Welt sein, sondern mehr von der gleichen Ungleichheit. Und wenn das das Erbe der KI ist, wird es ein zutiefst deprimierendes sein.

News

Bildnachweis: Moor Studio / Getty Images

Silicon Valley dämpft die Katastrophe: Technologen läuten seit Jahren die Alarmglocken über das Potenzial von KI, katastrophalen Schaden anzurichten. Aber im Jahr 2024 wurden diese Warnrufe übertönt.

OpenAI macht Verluste: OpenAI-CEO Sam Altman sagte, dass das Unternehmen derzeit bei seinem $200 pro Monat ChatGPT Pro-Plan Geld verliert, weil die Menschen es mehr nutzen, als das Unternehmen erwartet hatte.

Rekordinvestitionen in generative KI: Investitionen in generative KI, die eine Reihe von KI-gestützten Anwendungen, Tools und Diensten zur Generierung von Text, Bildern, Videos, Sprache, Musik und mehr umfasst, erreichten im letzten Jahr neue Höhen.

Microsoft erhöht die Investitionen in Rechenzentren: Microsoft hat für das Haushaltsjahr 2025 80 Milliarden US-Dollar für den Bau von Rechenzentren reserviert, die für KI-Arbeitslasten konzipiert sind.

Grok 3 nicht auffindbar: xAI's neues KI-Modell Grok 3 ist nicht rechtzeitig eingetroffen, was zu einem Trend von Flaggschiff-Modellen führte, die ihre versprochenen Einführungstermine verpassten.

Forschungspapier der Woche

KI kann viele Fehler machen. Aber sie kann auch Experten in ihrer Arbeit unterstützen.

Zumindest legt das eine Gruppe von Forschern nahe, die von der University of Chicago und dem MIT stammen. In einer neuen Studie schlagen sie vor, dass Investoren, die OpenAI's GPT-4o nutzen, um Quartalsergebnisse zusammenzufassen, höhere Renditen erzielen als diejenigen, die es nicht tun.

Die Forscher rekrutierten Investoren und ließen GPT-4o ihnen KI-zusammenfassungen entsprechend ihrer Investitionserfahrung geben. Erfahrenere Investoren erzielten eine 9,6%ige Verbesserung ihrer einjährigen Renditen nach der Nutzung von GPT-4o, während weniger erfahrene Investoren einen 1,7%igen Schub verzeichneten. Das ist keine schlechte Leistung für die Zusammenarbeit von KI und Mensch, wie ich sagen würde.

Modell der Woche

Leistung von METAGENE-1 bei verschiedenen Benchmarks.Bildnachweis: Prime Intellect

Prime Intellect, ein Startup, das Infrastruktur für dezentrales KI-Systemtraining aufbaut, hat ein KI-Modell veröffentlicht, das dabei helfen soll, Pathogene zu erkennen.

Das Modell, namens METAGENE-1, wurde auf einem Datensatz von über 1,5 Billionen DNA- und RNA-Basenpaaren trainiert, die aus menschlichen Abwasserproben sequenziert wurden. In Zusammenarbeit mit der University of Southern California und der Nucleic Acid Observatory von SecureBio erstellt, kann METAGENE-1 für verschiedene metagenomische Anwendungen verwendet werden, sagte Prime Intellect, wie die Untersuchung von Organismen.

"METAGENE-1 erreicht Spitzenleistungen in verschiedenen genomischen Benchmarks und neuen Bewertungen, die sich auf die Erkennung von Humanpathogenen konzentrieren", schrieb Prime Intellect in einer Reihe von Posts auf X. "Nach dem Vortraining ist dieses Modell darauf ausgelegt, bei Aufgaben in den Bereichen Biosurveillance, Pandemieüberwachung und Pathogenerkennung zu unterstützen."

Sammlung

Als Reaktion auf rechtliche Schritte großer Musikverlage hat sich Anthropic bereit erklärt, Sicherheitsvorkehrungen zu treffen, um zu verhindern, dass sein KI-gestützter Chatbot Claude urheberrechtlich geschützte Songtexte teilt.

Labels, darunter Universal Music Group, Concord Music Group und ABKCO, hatten Anthropic im Jahr 2023 verklagt und dem Startup vorgeworfen, durch das Training seiner KI-Systeme auf Texte von mindestens 500 Liedern das Urheberrecht zu verletzen. Die Klage ist noch nicht gelöst, aber vorerst hat sich Anthropic bereit erklärt, Claude daran zu hindern, Texte von Liedern, die den Verlagen gehören, zur Verfügung zu stellen und neue Liedtexte basierend auf dem urheberrechtlich geschützten Material zu erstellen.

"Wir freuen uns darauf zu zeigen, dass die Verwendung potenziell urheberrechtlich geschützten Materials beim Training von generativen KI-Modellen im Einklang mit dem bestehenden Urheberrecht ein typisches Recht auf Nutzung ist", sagte Anthropic in einer Erklärung.