Der Geschäftsführer von Microsoft, Satya Nadella, sowie die Geschäftsführer von Anthropic und Google DeepMind und der Philosoph Yuval Harari haben auf dem Davos-Treffen ihre Visionen und Ängste in Bezug auf KI dargelegt.
Künstliche Intelligenz (KI) hat sich auf dem Davos-Gipfel 2026 in fast jedes Gespräch gedrängt und neben traditionellen heiklen Themen wie Zollpolitik, internationalen Wettstreit und geopolitischen Spannungen an Bedeutung gewonnen.
Letztes Jahr auf Davos löste das chinesische Unternehmen DeepSeek einen Wirbel aus, als es sein KI-Modell und seinen Chatbot vorstellte, von dem das Unternehmen behauptete, er sei billiger und genauso leistungsfähig wie das Rival-Modell ChatGPT von OpenAI.
In diesem Jahr haben sich die Debatten über KI darauf ausgeweitet, wie sie umgesetzt wird, welche Risiken die Technologie birgt und welche Auswirkungen sie auf Arbeit und Gesellschaft hat.
Hier stehen die Aussagen der Tech-Führungskräfte auf Davos.
„Etwas Nützliches tun“ – Satya Nadella, Microsoft
Der Geschäftsführer von Microsoft, Satya Nadella, betonte, dass der Einsatz von KI nützlich ist.
„Wir als globale Gemeinschaft müssen einen Punkt erreichen, an dem wir [KI] einsetzen, um etwas Nützliches zu tun, das die Ergebnisse von Menschen, Gemeinschaften, Ländern und Branchen verändert“, sagte Nadella.
Nadella warnte, dass der Einsatz von KI ungleich über den Globus verteilt sein wird, vor allem durch den Zugang zu Kapital und Infrastruktur eingeschränkt.
Die Realisierung des KI-Potenzials erfordert „notwendige Bedingungen“ — vor allem Investitionen anzuziehen und eine unterstützende Infrastruktur aufzubauen, sagte er. Während große Tech-Unternehmen weltweit investieren, einschließlich des Globalen Südens, hängt der Erfolg von politischen Maßnahmen ab, die sowohl öffentliches als auch privates Kapital anziehen.
Kritische Infrastruktur, wie Stromnetze, werde „grundsätzlich von Regierungen getrieben“, sagte er, und private Unternehmen können erst dann effektiv arbeiten, wenn grundlegende Systeme wie Energie- und Telekommunikationsnetze vorhanden sind.
„Nicht wirklich menschlich“ – Yoshua Bengio
Der kanadische Informatiker und einer der sogenannten „Väter der KI“, Yoshua Bengio, warnte davor, dass heutige Systeme zu eng darauf trainiert werden, menschenähnlich zu sein.
„Viele Menschen interagieren mit ihnen in dem falschen Glauben, dass sie [KI] wie wir sind. Und je klüger wir sie machen, desto mehr wird es so sein, und es gibt Leute, die sie so gestalten wollen, dass sie uns ähneln… Aber es ist nicht klar, ob das gut sein wird“, sagte er.
„Die Menschheit hat Normen und Psychologie entwickelt, die mit anderen Menschen interagieren. Aber KIs sind nicht wirklich menschlich“, fügte er hinzu.
„Die intelligentesten Entitäten auf dem Planeten können auch die größten Selbsttäuschungen sein“ – Yuval Harari
Der populärwissenschaftliche Schriftsteller und Philosoph warnte vor KI-Superintelligenz, die grob definiert wird als KI, die die menschlichen kognitiven Fähigkeiten übertrifft, und sagte, dass wir „keine Erfahrung damit haben, eine hybride Mensch-KI-Gesellschaft zu schaffen“ und plädierte für Demut sowie einen „Korrekturmechanismus“, falls etwas schiefgeht.
„Er sagte auch, dass menschliche Intelligenz ‚eine lächerliche Analogie‘ sei und dass KI niemals wie Menschen sein werde, genauso wie Flugzeuge keine Vögel seien. „Die intelligentesten Entitäten auf dem Planeten können auch die größten Selbsttäuschungen sein“, sagte er.
„Der Verzicht auf den Verkauf von Chips nach China gehört zu den größten Maßnahmen, die wir ergreifen können“ – Dario Amodei, Anthropic
Der CEO und Mitbegründer von Anthropic sagte, dass die Entwicklung von KI aufregend sei und dass wir „vor der Tür zu unglaublichen Fähigkeiten stehen“, aber die nächsten Jahre entscheidend dafür seien, wie wir die Technologie regulieren und lenken.
Die Diskussion drehte sich um das, was nach der künstlichen allgemeinen Intelligenz (AGI) passieren wird, wenn KI menschliche kognitive Fähigkeiten erreicht oder übertrifft, wodurch Menschen die Kontrolle verlieren könnten.
Amodei argumentierte, dass „nicht den Verkauf von Chips nach China zu unterlassen“ eine der größten Maßnahmen sei, die wir ergreifen können, um sicherzustellen, dass wir Zeit haben, damit umzugehen, und er bezog sich damit darauf, dass KI außer Kontrolle geraten könnte. Er sagte Bloomberg außerdem von gravierenden Folgen für die Führungsposition der USA im KI-Bereich, weil Nvidia’s H200 KI-Chips nach China verkauft würden.
Amodei argued that if „geopolitische Gegenspieler, die mit ähnlichem Tempo vorgehen, langsamer würden, würde der eigentliche KI-Wettbewerb zwischen ihm und anderen Tech-Unternehmen stattfinden und nicht zwischen den USA und China.“
Was die Zukunft der Arbeit betrifft, sagte Amodei berühmt, dass KI die Hälfte aller Einstiegsberufe im Bürobereich vernichten könnte.
Allerdings sagte er, obwohl es derzeit keinen massiven Einfluss von KI auf den Arbeitsmarkt gebe, beobachte er einige Veränderungen in der Programmierbranche.
„Mehr sinnvolle Arbeitsplätze geschaffen“ – Demis Hassabis, Google DeepMind
Der CEO von Google DeepMind Technologies war optimistischer. Auf demselben Panel wie Amodei sagte er, dass er erwarte, dass „neue, sinnstiftendere Jobs geschaffen werden.“
Hassabis sagte, er glaube, es werde eine Verlangsamung bei der Einstellung von Praktikanten geben, aber dies werde durch die erstaunlichen Werkzeuge da draußen für alle kompensiert.
Für Studierende riet er, statt Praktika zu absolvieren, die Zeit zu nutzen, um „sich in der Beherrschung dieser Werkzeuge zu verbessern“, was er als „besser als herkömmliche Praktika“ bezeichnete, da man sich damit für die nächsten fünf Jahre einen Vorsprung verschafft.
Aber er warnte, dass der Arbeitsmarkt nach der AGI-Einführung in „unbekanntes Terrain“ geraten werde.
Hassabis sagte, dass dies in fünf bis zehn Jahren der Fall sein könnte, und dass nicht genügend Arbeit für Menschen vorhanden sein könnte, was größere Fragen nach Sinn und Zweck aufwirft, nicht nur nach Gehältern.
Der Geschäftsführer wies außerdem darauf hin, dass geopolitische Spannungen und der Wettbewerb zwischen KI-Unternehmen bedeuteten, dass Sicherheitsstandards überstürzt würden. Er forderte ein internationales Verständnis, wie etwa einen minimalen Sicherheitsstandard, der in einem etwas langsameren Tempo entwickelt werde, damit „wir dies für die Gesellschaft richtig hinkriegen“.

