Am Montag, den 22. Mai 2023, teilte ein verifizierter Twitter-Account namens „Bloomberg Feed“ einen Tweet mit der Behauptung, es habe eine Explosion im Pentagon gegeben, begleitet von einem Bild. Wenn Sie sich fragen, was das mit künstlicher Intelligenz (KI) zu tun hat: Das Bild wurde von der KI erstellt, der Tweet verbreitete sich schnell viral und löste einen kurzen Börsenrückgang aus. Es hätte viel schlimmer kommen können – eine deutliche Erinnerung an die Gefahren künstlicher Intelligenz.
Gefahren durch künstliche Intelligenz
Es sind nicht nur Fake News, über die wir uns Sorgen machen müssen. Mit KI sind viele unmittelbare oder potenzielle Risiken verbunden, von denen in Bezug auf Datenschutz und Sicherheit bis hin zu Voreingenommenheit und Urheberrechtsproblemen. Wir werden uns mit einigen dieser Gefahren der künstlichen Intelligenz befassen, sehen, was getan wird, um sie jetzt und in Zukunft zu mindern, und fragen, ob die Risiken der KI die Vorteile überwiegen.
Fake News
Als Deepfakes zum ersten Mal auftauchten, gab es Bedenken, dass sie in böser Absicht eingesetzt werden könnten. Das Gleiche gilt für die neue Welle von KI-Bildgeneratoren, wie DALL-E 2, Midjourney oder DreamStudio. Am 28. März 2023 ging die gefälschte KI-generierte Bilder von Papst Franziskus in einer weißen Pufferjacke von Balenciaga und die Freude an mehreren Abenteuern, darunter Skateboardfahren und Pokerspielen, viral. Wenn man die Bilder nicht genau betrachtete, war es schwierig, diese Bilder von der Realität zu unterscheiden.
Während das Beispiel mit dem Papst zweifellos etwas Spaß gemacht hat, war das Bild (und der dazugehörige Tweet) über das Pentagon alles andere als lustig. Von KI erzeugte gefälschte Bilder können den Ruf schädigen, Ehen oder Karrieren zerstören, politische Unruhen auslösen und sogar Kriege auslösen, wenn sie von den falschen Leuten verwendet werden – kurz gesagt, diese KI-generierten Bilder können bei Missbrauch äußerst gefährlich sein.
Mit KI-Bildgeneratoren, die jetzt für jedermann frei verfügbar sind, und Photoshop fügt einen KI-Bildgenerator hinzu der beliebten Software sind die Möglichkeiten, Bilder zu manipulieren und Fake News zu erstellen, größer denn je.
Datenschutz, Sicherheit und Hacking
Datenschutz und Sicherheit sind ebenfalls große Bedenken, wenn es um die Risiken von KI geht, da eine Reihe von Ländern ChatGPT von OpenAI bereits verboten haben. Italien hat das Modell aus Datenschutzgründen verboten, da es der Ansicht ist, dass es nicht der europäischen Datenschutz-Grundverordnung (DSGVO) entspricht, während die Regierungen Chinas, Nordkoreas und Russlands es aus Angst vor der Verbreitung von Fehlinformationen verboten haben..
Warum sind wir bei KI so besorgt um den Datenschutz? KI-Apps und Systeme sammeln große Datenmengen, um daraus zu lernen und Vorhersagen zu treffen. Doch wie werden diese Daten gespeichert und verarbeitet? Es besteht ein reales Risiko, dass Datenschutzverletzungen, Hackerangriffe und Informationen in die falschen Hände geraten.
Es sind nicht nur unsere persönlichen Daten, die gefährdet sind. KI-Hacking ist ein echtes Risiko – es ist noch nicht passiert, aber wenn Personen mit böswilliger Absicht in KI-Systeme eindringen könnten, könnte dies schwerwiegende Folgen haben. Beispielsweise könnten Hacker selbstfahrende Fahrzeuge steuern, KI-Sicherheitssysteme hacken, um Zugang zu hochsicheren Orten zu erhalten, und sogar Waffensysteme mit KI-Sicherheit hacken.
Experten der Defense Advanced Research Projects Agency (DARPA) des US-Verteidigungsministeriums erkennen diese Risiken und arbeiten bereits am DARPA-Projekt „Guaranteing AI Robustness Against Deception“ (GARD), um das Problem von Grund auf anzugehen. Ziel des Projekts ist es, sicherzustellen, dass die Widerstandsfähigkeit gegen Hacking und Manipulation in Algorithmen und KI integriert ist.
Urheberrechtsverletzung
Eine weitere Gefahr von KI ist die Urheberrechtsverletzung. Das hört sich vielleicht nicht so ernst an wie einige andere Gefahren, die wir erwähnt haben, aber die Entwicklung von KI-Modellen wie GPT-4 setzt jeden einem erhöhten Risiko von Verstößen aus.
Jedes Mal, wenn Sie ChatGPT bitten, etwas für Sie zu erstellen – sei es ein Blog-Beitrag zum Thema Reisen oder ein neuer Name für Ihr Unternehmen –, geben Sie ihm Informationen, die es dann zur Beantwortung zukünftiger Anfragen verwendet. Die Informationen, die es an Sie zurückmeldet, könnten das Urheberrecht einer anderen Person verletzen. Deshalb ist es so wichtig, einen Plagiatsdetektor zu verwenden und alle von KI erstellten Inhalte zu bearbeiten, bevor Sie sie veröffentlichen.
Gesellschafts- und Datenverzerrung
KI ist kein Mensch, also kann sie nicht voreingenommen sein, oder? Falsch. Menschen und Daten werden zum Trainieren von KI-Modellen und Chatbots verwendet, was bedeutet, dass voreingenommene Daten oder Persönlichkeiten zu einer voreingenommenen KI führen. Es gibt zwei Arten von Voreingenommenheit in der KI: gesellschaftliche Voreingenommenheit und Datenvoreingenommenheit.
Was passiert, wenn in der alltäglichen Gesellschaft viele Vorurteile vorhanden sind, wenn diese Vorurteile Teil der KI werden? Die für das Training des Modells verantwortlichen Programmierer könnten voreingenommene Erwartungen haben, die dann Eingang in KI-Systeme finden..
Oder Daten, die zum Trainieren und Entwickeln einer KI verwendet werden, könnten falsch, voreingenommen oder in böser Absicht erfasst sein. Dies führt zu Datenverzerrungen, die ebenso gefährlich sein können wie gesellschaftliche Verzerrungen. Wenn beispielsweise ein System zur Gesichtserkennung hauptsächlich anhand der Gesichter weißer Menschen trainiert wird, kann es Schwierigkeiten haben, Angehörige von Minderheitengruppen zu erkennen, was die Unterdrückung aufrechterhält.
Roboter übernehmen unsere Jobs
Die Entwicklung von Chatbots wie ChatGPT und Google Bard hat eine ganz neue Sorge im Zusammenhang mit KI aufgeworfen: Das Risiko, dass Roboter unsere Jobs wegnimmt. Wir sehen bereits, dass Autoren in der Technologiebranche durch KI ersetzt werden, Softwareentwickler befürchten, dass sie ihre Jobs an Bots verlieren, und Unternehmen, die ChatGPT verwenden, um Blog-Inhalte und Social-Media-Inhalte zu erstellen, anstatt menschliche Autoren einzustellen.
Laut Bericht 2020 zur Zukunft der Arbeitsplätze des Weltwirtschaftsforums wird KI bis 2025 weltweit voraussichtlich 85 Millionen Arbeitsplätze ersetzen. Auch wenn KI nicht die Autoren ersetzt, wird sie bereits von vielen als Werkzeug genutzt. Diejenigen in Berufen, bei denen die Gefahr besteht, dass sie durch KI ersetzt werden, müssen sich möglicherweise anpassen, um zu überleben – zum Beispiel können Autoren zu KI-Prompt-Ingenieuren werden, die es ihnen ermöglichen, mit Tools wie ChatGPT für die Inhaltserstellung zu arbeiten, anstatt durch diese Modelle ersetzt zu werden.
Zukünftige potenzielle KI-Risiken
Das sind alles unmittelbare oder drohende Risiken, aber was ist mit einigen der weniger wahrscheinlichen, aber dennoch möglichen Gefahren der KI, die wir in der Zukunft sehen könnten? Dazu gehören Dinge wie die Programmierung von KI, um Menschen zu schaden, zum Beispiel autonome Waffen, die darauf trainiert sind, während eines Krieges zu töten.
Dann besteht das Risiko, dass sich die KI zielstrebig auf ihr programmiertes Ziel konzentriert und destruktive Verhaltensweisen entwickelt, während sie versucht, dieses Ziel um jeden Preis zu erreichen, selbst wenn Menschen versuchen, dies zu verhindern.
Skynet hat uns beigebracht, was passiert, wenn eine KI empfindungsfähig wird. Obwohl der Google-Ingenieur Blake Lemoine bereits im Juni 2022 versucht hat, alle davon zu überzeugen, dass LaMDA, der künstlich intelligente Chatbot-Generator von Google, war empfindungsfähig existiert, gibt es glücklicherweise bis heute keine Beweise dafür, dass das wahr ist.
Die Herausforderungen der KI-Regulierung
Am Montag, 15. Mai 202, Sam Altman, CEO von OpenAI, nahm an der ersten Kongressanhörung zum Thema künstliche Intelligenz teil, Warnung: „Wenn diese Technologie schief geht, kann sie ziemlich schief gehen.“ Der OpenAI CO machte deutlich, dass er eine Regulierung befürwortet, und brachte viele seiner eigenen Ideen in die Anhörung ein. Das Problem besteht darin, dass sich die KI so schnell weiterentwickelt, dass es schwierig ist, zu wissen, wo man mit der Regulierung beginnen soll..
Der Kongress möchte vermeiden, die gleichen Fehler wie zu Beginn des Social-Media-Zeitalters zu machen, und ein Expertenteam neben dem Mehrheitsführer im Senat, Chuck Schumer, arbeitet bereits an Vorschriften, die Unternehmen dazu verpflichten würden, offenzulegen, welche Datenquellen sie für das Training verwendet haben Models und wer sie ausgebildet hat. Es kann jedoch einige Zeit dauern, bis klar wird, wie die KI genau reguliert wird, und es besteht kein Zweifel, dass es Gegenreaktionen seitens der KI-Unternehmen geben wird.
Die Bedrohung durch eine künstliche allgemeine Intelligenz
Es besteht auch das Risiko der Schaffung einer künstlichen allgemeinen Intelligenz (AGI), die alle Aufgaben erfüllen könnte, die ein Mensch (oder ein Tier) ausführen könnte. In Science-Fiction-Filmen oft erwähnt, sind wir von einer solchen Schöpfung wahrscheinlich noch Jahrzehnte entfernt, aber wenn wir tatsächlich eine AGI erschaffen, könnte dies eine Bedrohung für die Menschheit darstellen.
Viele Persönlichkeiten des öffentlichen Lebens vertreten bereits die Überzeugung, dass KI eine existenzielle Bedrohung für den Menschen darstellt, darunter Stephen Hawking, Bill Gates und sogar der ehemalige Google-CEO Eric Schmidt, der erklärte: „Künstliche Intelligenz könnte existenzielle Risiken bergen und Regierungen müssen wissen, wie das geht.“ um sicherzustellen, dass die Technologie nicht von bösen Menschen missbraucht wird.“
Ist künstliche Intelligenz also gefährlich und überwiegt ihr Risiko ihre Vorteile? Die Entscheidung darüber ist noch unklar, aber wir sehen bereits Hinweise auf einige der Risiken, die uns derzeit umgeben. Andere Gefahren dürften, wenn überhaupt, in absehbarer Zeit weniger zum Tragen kommen. Eines ist jedoch klar: Die Gefahren von KI sollten nicht unterschätzt werden. Es ist von größter Bedeutung, dass wir sicherstellen, dass die KI von Anfang an ordnungsgemäß reguliert wird, um zukünftige Risiken zu minimieren und hoffentlich abzumildern.
.