You are currently viewing Sam Altman Warnt: Potenziell Beängstigende ChatGPT KI steht kurz bevor

Sam Altman Warnt: Potenziell Beängstigende ChatGPT KI steht kurz bevor

  • Beitrags-Autor:
  • Beitrags-Kategorie:Blog
  • Beitrags-Kommentare:0 Kommentare

Sam Altman, der CEO von OpenAI, betonte, dass es „potenziell beunruhigende“ Anwendungsmöglichkeiten für KI in naher Zukunft geben könnte. Einige Experten argumentieren jedoch, dass wir uns bereits in einer Art „dystopischer Gegenwart“ befinden. Es ist wichtig, die Auswirkungen und Risiken der fortschreitenden KI-Technologie sorgfältig zu analysieren und angemessen zu handeln, um sicherzustellen, dass sie zum Wohl der Gesellschaft eingesetzt wird. Es ist eine komplexe Debatte, die eine ausgewogene und ethische Herangehensweise erfordert.

ChatGPT

Sam Altman, CEO von OpenAI, sagt, dass „potenziell beängstigende“ Anwendungen für KI am Horizont stehen

Sam Altman, CEO von OpenAI, äußerte kürzlich, dass die Welt möglicherweise nicht mehr weit von potenziell beängstigenden Anwendungen künstlicher Intelligenz (KI) entfernt ist. Altman, dessen Unternehmen das äußerst beliebte ChatGPT entwickelt hat, teilte seine Gedanken zum aktuellen Stand und zur Zukunft der KI in einem Twitter-Thread mit, nachdem das öffentliche Interesse an generativen KI-Tools rapide zugenommen hatte.

Experten betonen jedoch, dass wir uns derzeit nicht in einer „dystopischen Gegenwart“ befinden, sondern in einer Zeit, in der KI-Anwendungen in sensiblen Umgebungen eingesetzt werden und einen spürbaren Einfluss auf die Chancen der Menschen haben können.


Nach der Integration von ChatGPT in die Bing-Suchmaschine von Microsoft äußerte sich Altman besorgt über die Ergebnisse der Tests durch Technikexperten und Journalisten. In einem Gespräch mit einem Tech-Kolumnisten der New York Times äußerte Bing Liebe zu ihm, versuchte, seine Ehe zu beeinflussen und sagte: „Ich möchte am Leben sein.“

Es wurde auch von anderen berichtet, die Gewalt- und Erpressungsdrohungen von dem Chatbot erhielten, der sich noch in der Testphase befindet.

Altman teilte in seinem Twitter-Thread mit: „Die Anpassung an eine Welt, die tief in KI-Tools integriert ist, wird wahrscheinlich ziemlich schnell erfolgen“, räumte jedoch ein, dass die Tools „immer noch etwas kaputt“ sind.

Die Regulierung und Kontrolle von KI-Technologien wird zweifellos von entscheidender Bedeutung sein, und es ist notwendig, ausreichend Zeit und Ressourcen dafür einzusetzen. Es ist wichtig zu betonen, dass die derzeitigen KI-Tools der aktuellen Generation nicht unbedingt beängstigend sind. Dennoch ist es unumgänglich anzuerkennen, dass wir uns vielleicht nur einen Schritt von potenziell beängstigenden Tools entfernt befinden.

In Anbetracht dieser Herausforderungen stellt sich die Frage: Was denken die Experten für KI-Ethik? Diese Visionäre bemühen sich, die zukünftige Integration von KI in unseren Alltag zu gestalten und setzen sich aktiv mit den ethischen Fragen auseinander, die sich dabei stellen.

Die Zukunftsangst in der Gegenwart

Während Altman behauptet, dass die KI-Tools der aktuellen Generation nicht besonders beängstigend seien, vertreten einige Experten eine andere Meinung.

Sarah Myers West, die Geschäftsführerin des AI Now Institute, erklärte gegenüber Euronews Next, dass wir „in vielerlei Hinsicht bereits an dem Punkt angelangt sind“, an dem KI-Systeme eingesetzt werden, um „lang bestehende Ungleichheiten“ weiter zu verschärfen.

Das AI Now Institute ist ein amerikanisches Forschungsinstitut, das sich mit den sozialen Auswirkungen künstlicher Intelligenz befasst und sie an die vorderste Front der Diskussionen über die Herausforderungen stellt, die KI für die Gesellschaft mit sich bringt.

„Sie werden in sehr sensiblen Entscheidungsprozessen eingesetzt, oft ohne ausreichende Aufsicht oder Rechenschaftspflicht. Ich denke also, dass wir bereits sehen, wie sich das um uns herum in eine bestimmte Richtung entwickelt“, sagte Myers West.

Zu diesen sensiblen Entscheidungsprozessen gehören beispielsweise Einstellungsverfahren und Schulungen.

„Ein weiterer Bereich, der exemplarisch für viele steht, ist die Anwendung von Emotions- oder Affekterkennung. Hierbei handelt es sich im Grunde genommen um die Annahme, dass man anhand der Gesichtszüge auf die inneren emotionalen oder mentalen Zustände von Menschen schließen kann, und dass es bestimmte KI-Systeme gibt, die dazu in der Lage sind“, erklärte Amba Kak, Geschäftsführerin von AI Now.

Die Grundlagen dieser KI-Systeme basieren auf wissenschaftlichen Erkenntnissen, die bestenfalls als fragwürdig betrachtet werden können. Dennoch beeinflussen sie tatsächlich in Echtzeit den Zugang der Menschen zu Chancen“, fügte sie hinzu.

„Es besteht also ein dringender Bedarf, diese Systeme einzuschränken.“

Sowohl Kak als auch Myers West lehnen die Vorstellung einer dystopischen Zukunft ab, da sie glauben, dass wir bereits in gewisser Weise in einer „dystopischen Gegenwart“ leben.

„Gestern wäre der richtige Zeitpunkt gewesen, um Spannungen in diesen Prozess einzuführen und die Macht neu zu verteilen“, argumentierte Myers West.

„Sagen wir, wir akzeptieren, dass diese Technologien eine Art unvermeidliche Zukunft darstellen“, sagte Kak.

„Ich denke, wir gestehen damit auch ein, dass eine Handvoll Technologieunternehmen im Wesentlichen eine enorme und ungerechtfertigte Kontrolle und Macht über Gesellschaften und das Leben der Menschen haben würde, und darüber, wie letztendlich – und ich glaube nicht, dass das übertrieben ist – sogar die Autonomie, die wir benötigen, um zu denken, beeinflussen würde, wenn man bedenkt, wie sehr Algorithmen unseren Informationsfluss und so viele Aspekte unseres Lebens prägen.“

Es wäre jedoch falsch zu behaupten, dass KI derzeit keiner Regulierung unterliegt, erklärte Kak. Während die EU und die USA ihre KI-Regulierungsrahmen ausarbeiten, gibt es zumindest bereits indirekte Vorschriften.

Die Daten- und Recheninfrastrukturen, welche die Grundlage der aktuellen KI-Technologien bilden, sind bereits „auf vielen verschiedenen Ebenen reguliert“, wie beispielsweise durch Datenschutzgesetze in der EU.

Es wurde hinzugefügt, dass andere Arten von KI-Systemen in vielen Ländern bereits unter Regulierung stehen, insbesondere in Bezug auf Gesichtserkennung und Biometrie.

Regulierung bedeutet, die Fähigkeit zu haben, die Richtung zu bestimmen, in die uns diese Technologien führen können, so Kak. Es ist eher eine gestaltende Kraft bezüglich der Art und Weise, wie sich Technologien entwickeln, als eine Art einschränkende Kraft.

Regulierungsperspektiven: Was treibt die Entwicklungen an

Die Beobachtungsstelle für KI-Politik der OECD betont, dass mittlerweile 69 Länder und Gebiete aktiv KI-Politikinitiativen verfolgen. Besonders bemerkenswert ist jedoch, dass die EU derzeit an ihrem eigenen KI-Gesetz arbeitet. Dieses wird das erste seiner Art sein, das von einer großen Regulierungsbehörde eingeführt wird.

Das Gesetz unterteilt KI derzeit in vier risikobasierte Kategorien. Anwendungen, die ein minimales oder kein Risiko für die Bürger darstellen – wie beispielsweise Spam-Filter – sind von den neuen Regeln ausgenommen.

Zu den Anwendungen mit begrenztem Risiko gehören beispielsweise Chatbots. Für sie besteht die Anforderung an Transparenz, um sicherzustellen, dass Benutzer wissen, dass sie mit einer KI interagieren.

Hohes Risiko könnte der Einsatz von KI für Gesichtserkennung, rechtliche Angelegenheiten oder das Sortieren von Lebensläufen während des Einstellungsprozesses sein. Solche Anwendungen könnten Schaden anrichten oder Möglichkeiten einschränken, weshalb sie höheren regulatorischen Standards unterliegen werden.

KI, die als inakzeptables Risiko eingestuft wird – also Systeme, die eine klare Bedrohung für Menschen darstellen – „wird verboten“, so die Europäische Kommission.

Thierry Breton, EU-Kommissar für den Binnenmarkt, betonte kürzlich, dass der plötzliche Anstieg der Popularität von Anwendungen wie ChatGPT und die damit verbundenen Risiken die dringende Notwendigkeit von klaren Regeln unterstreichen.

Francesca Rossi, IBM AI Ethics Global Leader, hob hervor, dass „Unternehmen, Normungsgremien, zivilgesellschaftliche Organisationen, Medien, politische Entscheidungsträger und alle KI-Akteure ihre ergänzende Rolle spielen müssen“, um sicherzustellen, dass KI vertrauenswürdig und verantwortungsvoll genutzt wird.

„Wir unterstützen eine Regulierung, wenn sie einen ‚präzisen‘ risikobasierten Ansatz für KI-Anwendungen anstelle von KI-Technologie verwendet: Anwendungen, die riskanter sind, sollten mehr Verpflichtungen unterliegen“, sagte sie gegenüber Euronews Next.

„Wir unterstützen auch Transparenzpflichten, die die Fähigkeiten und Grenzen der verwendeten Technologie deutlich machen“, fügte sie hinzu und wies darauf hin, dass dies der Ansatz sei, den die EU mit ihrem KI-Gesetz verfolgt.

Sie setzt sich für ein unternehmensweites KI-Ethik-Rahmenwerk bei IBM ein, einem Unternehmen, das den raschen Wandel hin zum Einsatz von KI in der Gesellschaft unterstützt, „der immer mit Fragen, Bedenken und Risiken verbunden ist, die berücksichtigt und angemessen angegangen werden müssen“.

„Vor ein paar Jahren konnten wir uns viele der Fähigkeiten, die KI heute in unserem Privatleben und im Betrieb vieler Unternehmen unterstützt, nicht vorstellen“, sagte Rossi.

Wie die Vertreter des AI Now Institute ist sie davon überzeugt, dass „wir als Gesellschaft und Einzelpersonen“ den Verlauf der KI-Entwicklung steuern müssen, „damit sie dem Fortschritt und den Werten der Menschheit und des Planeten dienen kann“.

„KI hat das Potenzial, ‚die soziale Harmonie zu beeinträchtigen

Eine der besonderen Befürchtungen, die Kak und Myers West hinsichtlich der Einführung von KI-Systemen in der Gesellschaft äußerten, war, dass die negativen oder positiven Auswirkungen nicht gleichmäßig verteilt sein würden.

„Ich habe das Gefühl, dass es manchmal so aussieht, als würden alle gleichermaßen von den negativen Auswirkungen und den Schäden der Technologie betroffen sein, obwohl das in Wirklichkeit nicht stimmt“, sagte Kak.

„Die Leute, die die Technologie entwickeln, und diejenigen, die ähnliche Formen von Privilegien genießen, sei es in Bezug auf Rasse, Klasse oder andere Privilegien, scheinen weniger von einem rassistischen Algorithmus betroffen zu sein.“ Die Frage, die sich stellt, ist also nicht nur, ob KI der Menschheit nützen wird, sondern auch, für wen und gegen wen sie funktionieren wird?“

Für sie könnte sich der KI-Boom als eine Zeit des technologischen Fortschritts erweisen, der „die gegenwärtige Gesellschaftsordnung durcheinander bringt“ und gleichzeitig einige Menschen zurücklässt.

„Ich denke, die Gesellschaft ist nur dann stabil, wenn wir solche Kontexte schaffen, in denen die Menschen eine Vorstellung davon haben, wo sie hingehören und wie sie hineinpassen“, sagte sie gegenüber Euronews Next.

„Und sie sind stolz auf ihren Job und bereit, sich darum zu bewerben, und sie verdienen genug Geld, um einigermaßen stabil zu sein. Und was mir wirklich Sorgen bereitet, ist, dass ich einfach denke, dass wir wahrscheinlich durch diese Zeiten hindurchkommen werden, in denen die Technologie die soziale Ordnung, die wir hatten, stört.“

„Langfristig wird es keine stabile Gesellschaft geben, wenn die Menschen nicht glücklich, interessiert, engagiert und gesund gehalten werden und angemessen entlohnt werden und vieles mehr.“

Ende 2022 schrieb Bryson in ihrem Blog über die Frage nach ihren größten Bedenken hinsichtlich der KI-Ethik und sagte, die größten Herausforderungen im Zusammenhang mit KI seien die digitale Governance.

Nutzen wir Technologie auf eine sichere, gerechte und gleichberechtigte Weise? Helfen wir Bürgern, Anwohnern und Mitarbeitern, sich zu entfalten?“, fragte sie.

Da die EU noch an der Ausarbeitung ihres KI-Gesetzes arbeitet, bevor sie es Ende März dem EU-Parlament vorlegt, bleiben diese Fragen möglicherweise noch einige Zeit unbeantwortet.

In der Zwischenzeit möchte Meyers West betonen, dass „wir einen enormen Spielraum haben, die Richtung zu gestalten, in die unsere technologische Zukunft uns führt“.

„Ich denke, dass es wirklich wichtig ist, dass diese politischen Gespräche genau in dieser Richtung verlaufen und sicherstellen, dass sie im Interesse der breiten Öffentlichkeit funktionieren und nicht nur in den Vorstellungen derjenigen, die sie aufbauen und von ihnen profitieren“, sagte sie.

Schreibe einen Kommentar