Die Entwicklung der künstlichen Intelligenz befindet sich an einem historischen Wendepunkt. Das globale Wettrennen zur Entwicklung einer Artificial General Intelligence (AGI) – einer künstlichen Superintelligenz – , ist in vollem Gange. Mit dieser wird sich die Welt, wie wir sie bislang kennen, fundamental verändern. Was wir dabei nicht außer Acht lassen dürfen: Künstliche Intelligenz kann ambivalente Konsequenzen für uns Menschen haben:

  • Chancen: Einerseits eröffnen uns KI-Technologien bedeutende Chancen, die wir nutzen sollten. Sie reichen von der Automatisierung von Tätigkeiten, die „dumb, dull, or dangerous“ sind, zu signifikanten Produktivitäts- und Effizienzgewinnen, bis hin zu Lösungsmöglichkeiten für die größten Herausforderungen unserer Zeit wie Klimawandel, wachsender Ernährungs- und Energiebedarf oder Bekämpfung von Krankheiten und Pandemien. KI gilt zu Recht als entscheidender „Werkzeugkoffer“, mit dem wir Probleme lösen können, die für unsere humane Intelligenz alleine zu komplex sind. Menschen, die in ihrem Arbeitsalltag KI anwenden, haben die Möglichkeit, so effizient und gleichzeitig so angenehm zu arbeiten wie nie zuvor. So gesehen kann KI für uns Menschen ein „Heilsbringer“ sein.
  • Risiken: Andererseits warnen führende KI-Forscher wie beispielsweise Nobelpreisträger Geoffrey Hinton, der als „Godfather of AI“ bezeichnet wird,  – eindringlich vor den größten KI-Risiken für die Menschheit. Denn eine unkontrollierte und missbrauchte leistungsstarke Superintelligenz kann in Zukunft eine der größten Bedrohungen für die Stabilität unserer Zivilisation darstellen. Die Gefahren reichen von akuten, bereits heute schon spürbaren Problemen wie Desinformation, Manipulation und flächendeckender Disruption am Arbeitsmarkt bis hin zu langfristigen, existenzgefährdenden Bedrohungen der Menschheit. Die großen Chancen von KI gehen also mit erheblichen Risiken einher.

Das Jahr 2025 hat nochmal eines verdeutlicht: Die rasante Entwicklung im Bereich KI führt zunehmend zu einer kritischen Diskrepanz zwischen technologischen Fähigkeiten einerseits und des Reifegrads des proaktiven KI-Risikomanagements andererseits.KI-Kompetenz umfasst nicht nur die Fähigkeit, KI-Potenziale nutzen zu können, sondern auch, ein Bewusstsein für die Risiken von KI zu entwickeln. Dies ist die Voraussetzung dafür, Risiken proaktiv zu minimieren und den KI-Transformationsprozess als „mündiger Anwender“ mitgestalten zu können. Daher ist diese Newsletterausgabe der Frage gewidmet, was die „Anatomie der wesentlichsten KI-Risiken“ ist und was die konkreten kurz- und mittelfristigen Risiken der KI-Entwicklung sind.

1. Kurzfristige, bereits spürbare Risiken: Disruption und Manipulation

Bereits heute sind diverse akute Risiken von KI spürbar, die in den nächsten Jahren unsere Gesellschaft, Wirtschaft und Sicherheit zunehmend beeinflussen. Sie manifestieren sich bereits heute. Zu den Risiken zählen

  • Gezielte Desinformation und soziale Spaltung: KI-Algorithmen beeinflussen, welche Inhalte uns im Netz und insbesondere in den Social Media angezeigt werden, und erzeugen teils „polarisierende Echokammern“, die gesellschaftliche Gräben vertiefen können. Zudem können generative KI-Modelle täuschend echt wirkende Falschinformationen und hyperrealistische Fotos, Videos und Tonaufnahmen (Deepfakes) produzieren. Die Verbreitung von Desinformation und manipulativen Inhalten erschwert eine freie Meinungsbildung und kann Wahlen stark beeinflussen und sogar unsere Demokratie gefährden.
  • Aushöhlen der Privatsphäre und Manipulierbarkeit: Mit der Nutzung von KI-Tools geben wir mit jeder Interaktion Daten preis. KI-Tools sammeln Daten nicht nur über das, was wir direkt eingeben, sondern analysieren auch unser Nutzungsverhalten und Präferenzen. Zudem können auch Daten aus der Umgebung gesammelt werden, wie bspw. Standortdaten, Gerätedaten und Bewegungsmuster. Die gesammelten Daten werden von KI-Algorithmen analysiert und ausgewertet, um ein detailliertes Profil von den jeweiligen Nutzern zu erstellen. Dieses Profil macht Menschen „transparent“ und damit gezielt „beeinflussbar“, da KI-Modelle zukünftige Entscheidungen, Präferenzen und Handlungen datenbasiert präzise vorhersagen können.
  • Cyberkriminalität und Betrug: Kriminelle verwenden KI zunehmend, um raffinierte Phishing-Angriffe zu konzipieren und Sicherheitsbarrieren zu überwinden. Zudem kann KI täuschend echte Betrugs-E-Mails versenden und Stimmen imitieren (Voice-Cloning), um Betrug zu begehen. Auch individuelle Hand- und damit Unterschriften lassen sich KI-basiert klonen. Diese Entwicklung gefährdet die digitale Sicherheit von Unternehmen und Privatpersonen und eröffnet neue Möglichkeiten für Betrug. Den Foto-, Stimm- und Unterschriftenbeweis gibt es in der bisherigen Form nicht mehr.
  • Autonome Waffen und Biogefahren: KI kann grundsätzlich dual genutzt werden. Einerseits stärkt sie die Verteidigungsfähigkeit, andererseits ermöglicht sie fortschrittlichere Angriffe. Bereits jetzt sind teilautonome Waffensysteme, bspw. Drohnensysteme, weit verbreitet, bei denen die KI bestimmte Schritte automatisiert, der Mensch aber weiterhin kontrolliert. Experten warnen vor vollautomatisierten Waffensystemen, bei denen KI oder „autonome Kampfroboter“ selbstständig entscheiden können, welche Ziele sie attackieren. Eine weitere Gefahr stellen KI-optimierte Biowaffen dar, mit denen bspw. tödliche Viren erzeugt und als Waffe missbraucht werden können. Nobelpreisträger Hinton wies darauf hin, dass bereits durchschnittlich ausgebildete Biologen mit den Möglichkeiten von KI „tödliche Viruskombinationen“ entwickeln können.
  • Machtkonzentration und systemische Abhängigkeit: Die immensen Kosten für das Training von großen KI-Modellen begünstigen Monopolbildungen. Dies führt zu einer Machtkonzentration bei wenigen Unternehmen und erhöht die systemische Abhängigkeit von deren Leistungen und Infrastrukturen. Europa hat großen Aufholbedarf im Bereich der digitalen Souveränität.
  • Arbeitsmarkt und soziale Ungleichheit: Exponentielle Fortschritte in KI führen dazu, dass die Veränderungsgeschwindigkeit und -intensität am Arbeitsmarkt so groß ist, dass weite Teile der Bevölkerung mit dem Wandel nicht mehr Schritt halten und sich damit nicht schnell genug anpassen können. Menschen, die bislang Tätigkeiten verrichtet haben, die nun automatisiert werden können, besitzen oft nicht die erforderlichen Qualifikationen, um neu entstehende Jobs in der KI-Transformation übernehmen zu können. Ohne geeignete Anpassungsmechanismen werden die Fortschritte in KI die soziale Ungleichheit verschärfen und zu gesellschaftlichen Verwerfungen führen. Unsere existierenden Sozialversicherungssysteme sind nicht auf den hohen Automatisierungsgrad vorbereitet, der heute schon mit Hilfe von KI und deren Kombination mit Robotik realisierbar wäre.
  • Ungesunde Technologiebindung: Durch KI-Lösungen, die als virtuelle Freunde als „seemingly conscious AI“ (KI mit Bewusstsein) auf den Markt kommen, können Menschen eine ungesunde emotionale Bindung zu Technologie entwickeln. Experten warnen davor, dass gerade junge Menschen „KI-Companions“ als ihre besten Freunde erachten und nicht mehr nach echten, zwischenmenschlichen Beziehungen streben.

Neben diesen akuten Risiken existieren zudem langfristige Risiken, die durch eine hochentwickelte KI-Superintelligenz entstehen könnten und noch weitaus gefährlicher sind.

2. Langfristige existenzielle Risiken durch AGI

Die KI-Entwicklung ist geopolitisch kompetitiv und führt zu einem ambitionierten KI-Wettrüsten (AI Race) insbesondere zwischen USA und China. Technologische KI-Vorherrschaft führt zu militärischer und ökonomischer Vorherrschaft.

Dieser Wettbewerb birgt das Risiko in sich, dass „AI-Safety“ und damit verbundene Sicherheitsstandards zugunsten schnellerer Entwicklung geopfert werden. Während also die KI-Fähigkeiten exponentiell wachsen, schreitet die Sicherheitsforschung nur linear voran. Damit steigt die Missbrauchsgefahr durch böswillige Akteure und das Risiko, dass KI selbst zum unkontrollierbaren Akteur wird (Alignment-Problem). Das Alignment-Problem beschreibt die bislang nicht gelöste Aufgabe, grundsätzlich sicherzustellen, dass die Ziele einer (autonom agierenden) KI zu jedem Zeitpunkt mit den grundlegenden menschlichen Werten übereinstimmen.

Was bedeuten die langfristigen Risiken konkret und warum sind sie so gefährlich?

  • Superintelligenz und Kontrollverlust: In Zukunft werden KI-Systeme eine höhere Intelligenz als Menschen erreichen. Die zentrale Frage lautet daher für uns Menschen: Wie können wir die Kontrolle über KI behalten? Aus Sicht von Geoffrey Hinton fehlt jegliche historische Erfahrung, wie weniger intelligente Akteure intelligentere beherrschen könnten. Wenn also eine KI echte Superintelligenz erlangt und darüber hinaus autonom agiert, besteht ein hohes Risiko, dass menschliche Vorgaben umgangen werden können. Die Alignment-Problematik wird zur entscheidenden Herausforderung in der KI-Entwicklung.
  • Existenzielle Bedrohung der Menschheit: Unkontrollierte Superintelligenz könnte im schlimmsten Fall zur Gefahr für das Überleben der Menschheit werden. Es gibt namhafte KI-Experten, die die Wahrscheinlichkeit, dass KI „innerhalb der nächsten 30 Jahre zur Auslöschung der Menschheit führt“, auf beunruhigende 10–20 % oder mehr einschätzen. Empfehlenswert sind hierzu nicht nur aktuelle Interviews mit Geoffrey Hinton, sondern auch mit Roman Yampolskiy, einem renommierten AI Safety Experten. Gerade letzterer warnt vor einer ernst zu nehmenden Wahrscheinlichkeit einer katastrophalen Fehlentwicklung von KI. Eine solche existenzielle KI-Gefahr könnte sich z.B. darin manifestieren, dass ein hochintelligentes System eigene Ziele verfolgt, die mit dem Weiterbestehen der Menschheit unvereinbar sind.

Experten sind sich einig, dass sich die Zeitfenster zum menschlichen Kontrollerhalt sowie zur Sicherstellung einer friedlichen Koexistenz von humaner und künstlicher Superintelligenz schnell schließen, wenn die führenden KI-Entwicklungslabore aus den USA und China bei der Entwicklung von AGI (Artificial General Intelligence) das Ziel AI-Safety weiterhin geringer gewichten als das Streben nach globaler Technologieführerschaft.

Fazit

Fortschritt – gerade auch im Bereich KI – bemisst sich nicht nur daran, was wir Neues für die Menschheit schaffen, sondern vor allem auch daran, was wir uns ersparen. Die kommenden Jahre sind entscheidend in der weiteren KI-Entwicklung: Es liegt an uns, durch weitsichtige Forschung, kluge Regulierung, internationale Kooperation, durch unternehmerisch verantwortungsvolles Handeln sowie durch kollektives Einbringen der KI-Nutzer sicherzustellen, dass die Potenziale der KI zum Wohl der Menschheit genutzt werden und nicht der Menschheit schaden. Es ist jetzt die Zeit, Verantwortung zu übernehmen, damit wir nicht von Menschenhand eine Intelligenz schaffen, die uns zu unserem eigenen Verhängnis wird.

Wenn Ihr die ausführliche Version dieser Newsletterausgabe lesen wollt, in der ich die konkreten Handlungsempfehlungen zum Umgang mit den größten KI-Risiken beleuchte, könnt Ihr dies auf der Plattform Substack tun.  Zur Langversion meines Newsletter auf Substack gelangt Ihr hier:

https://open.substack.com/pub/yasminweiss/p/ki-risiken-im-jahr-2025-warum-wir?r=4e6ub6&utm_campaign=post&utm_medium=web&showWelcomeOnShare=true

Ich hoffe, viele von Euch auf Substack wiederzutreffen, der internationalen Publikations- und Contentplattform, auf der tiefergehendes Wissen mit mehr Details geteilt wird.

Herzlich

Eure

Yasmin Weiß