AboAbonnieren

Rundschau-Debatte des TagesWie gefährlich wird Künstliche Intelligenz?

Lesezeit 4 Minuten
ARCHIV - 26.10.2023, --: Eine menschliche Hand greift die Hand eines humanoiden Roboters.

Handschlag mit einem humanoiden Roboter: Experten sind sich uneins darüber, ob Künstliche Intelligenz ein Risiko für den Menschen werden könnte oder eher vielmehr der Mensch, der sie einsetzt.

Software mit Künstlicher Intelligenz ist bereits allgegenwärtig, aber meist eng auf Aufgaben spezialisiert. Doch wie wird diese Technologie die Welt der Zukunft prägen?

Bundeswirtschaftsminister Robert Habeck (Grüne), US-Vizepräsidentin Kamala Harris, UN-Generalsekretär António Guterres, EU-Kommissionschefin Ursula von der Leyen und weitere Politiker kamen auf Einladung von Premierminister Rishi Sunak am Donnerstag zusammen, um Wege zu einer besseren Kooperation der sich schnell entwickelnden KI-Technologie zu sprechen.

Welche Gefahren können von Künstlicher Intelligenz ausgehen?

Die britische Regierung warnte in einem Papier vor verschiedenen Szenarien. Für gefährliche Gruppen könne es leichter werden, Betrug zu begehen, Cyberattacken zu planen oder mit Falschinformationen die Gesellschaft zu beeinflussen. Grundsätzlich könne es für Terroristen einfacher werden, biologische oder chemische Waffen zu entwickeln, allerdings müssten sie immer noch an die nötigen Substanzen gelangen.

Könnten Computer die Menschheit auslöschen?

Glaubt man dem Tech-Milliardär Elon Musk, der ebenfalls bei dem Gipfel dabei war, stellt Künstliche Intelligenz eine der größten Bedrohungen für die Menschheit dar, die womöglich gar nicht ganz unter Kontrolle gebracht werden kann. Manche Forscher halten es aber für irreführend, sich zu sehr auf das Existenzrisiko zu konzentrieren. Es sei eine „gefährliche Ablenkung von den Diskussionen, die wir führen müssen über die Regulierung von KI“, sagte zum Beispiel Mhairi Aitken vom Alan Turing Institute dem Portal „Politico“.

Kritiker sehen etwa große Fragen beim Datenschutz, bei Urheberrechten oder der Diskriminierung von Menschen durch Algorithmen. Die Schlagzeile sei nicht, dass KI uns eines Tages töten könnte, sondern dass Menschen in Institutionen bereits in diesem Moment KI einsetzten, um Schäden anzurichten, meint Sasha Costanza-Chock vom Berkman Klein Center der Harvard University und von der Organisation Algorithmic Justice League.

Gibt es denn noch keine Regeln im Umgang mit KI?

Erste Schritte wurden bereits unternommen. Die Europäische Union will mit einer KI-Strategie einen rechtlichen Rahmen zur Regulierung der Technologie schaffen. In den USA will Präsident Joe Biden mit einem rechtlichen Rahmen Risiken durch Software mit KI minimieren. Ein Präsidentenerlass von Montag sieht unter anderem vor, dass bei Programmen, die potenziell gefährlich für nationale Sicherheit, Wirtschaft oder Gesundheit werden könnten, die Entwickler die US-Regierung schon beim Anlernen der KI-Modelle unterrichten müssen. Auch werden sie Ergebnisse von Sicherheitstests mit den Behörden teilen müssen.

Als bedeutendes Ergebnis der Gipfel-Konferenz von Donnerstag kündigte der britische Premierminister Rishi Sunak die Gründung eines britisch-amerikanischen Instituts für KI-Sicherheit an, das neue Programme noch vor deren Veröffentlichung testen solle. Darauf habe er sich mit US-Vizepräsidentin Kamala Harris und führenden Unternehmen in der Branche geeinigt, sagte der konservative Politiker zum Abschluss des Gipfels.

Welche Unternehmen sollte man kennen?

Besonders bekannt wurde in den vergangenen Monaten das Start-up OpenAI, das den Chatbot ChatGPT entwickelte. Die Software kann Sätze auf dem sprachlichen Niveau eines Menschen bilden. Damit das funktioniert, werden solche Programme mit gewaltigen Mengen an Texten und Informationen angelernt. Neben zahlreichen Start-ups spielen auch die reichen Tech-Konzerne wie Google, Amazon, Microsoft, Meta und Apple mit ihren Ressourcen eine wichtige Rolle bei KI.

Was kann KI-basierte Software heute schon?

Software mit Künstlicher Intelligenz ist bereits allgegenwärtig – aber meist eng auf Aufgaben spezialisiert. Sie steckt etwa in der Bildverbesserung, Autokorrektur, in Chatbots, die allmählich statt Hotlines genutzt werden sowie im Gesundheitswesen zum Beispiel zur Analyse von Symptomen.

Welche Vorteile und Chancen hält KI bereit?

Bundeswirtschaftsminister Habeck betonte bei dem Gipfel vor allem die Chancen von Künstlicher Intelligenz. Die Technologie könne viele Dinge leichter und effizienter machen, „vom Klimaschutz bis zu Wetterdaten und Frühwarnsystemen, von der Krankheitserkennung bis zu Therapiesystemen“, sagte der Grünen-Politiker. Und: Nicht die Technik selbst solle reguliert werden, sondern konkrete, risikoreiche Anwendungen.

Was können künftige Gipfel zum Thema erreichen?

Der Gipfel in Bletchley Park gilt als einer der ersten Schritte hin zu einer Regulierung. Bereits geplant ist, dass Frankreich im kommenden Jahr eine weitere Auflage des Gipfels ausrichten wird. Derzeit gibt es aber noch mehrere konkurrierende Formate, in denen über das Thema gesprochen wird. Dazu gehören der Kreis der führenden westlichen Wirtschaftsnationen G7, aber auch die Vereinten Nationen kämen infrage. Als Stärke des britischen Gipfel-Formats gilt jedenfalls, dass auch Staaten wie China und Indien teilgenommen haben – wenn auch nur mit Vertretern aus der dritten Reihe. (dpa)


Jobkiller KI

Tech-Milliardär Elon Musk glaubt, dass Künstliche Intelligenz die Notwendigkeit für Lohnarbeit irgendwann überflüssig machen wird. Es sei schwer zu sagen, wann dieser Moment kommen werde, „aber es wird einen Punkt geben, an dem kein Job mehr notwendig sein wird“, sagte Musk im Gespräch mit dem britischen Premierminister Rishi Sunak nach dem Abschluss der KI-Sicherheitskonferenz. Über soziale Verwerfungen infolge von Jobverlusten durch Fortschritte bei Künstlicher Intelligenz zeigte sich Musk nicht besorgt. „Wir werden kein universelles Grundeinkommen haben, wir werden universelles Großeinkommen haben“, sagte er. Die Herausforderung werde vielmehr sein, einen Sinn im Leben zu finden. (dpa)