banner
Nachrichtenzentrum
Unschlagbare Preise für außergewöhnliche Qualitätsprodukte.

Washington kann die KI-Freiheit stoppen

Jun 11, 2023

Fünf Möglichkeiten für Washington, das Silicon Valley zur Rechenschaft zu ziehen

Im April bemerkten Anwälte der Fluggesellschaft Avianca etwas Seltsames. Ein Passagier, Robert Mata, hatte die Fluggesellschaft verklagt und behauptet, dass ein Servierwagen auf einem Flug sein linkes Knie getroffen und schwer verletzt habe, aber mehrere in Matas Klage angeführte Fälle schienen nicht zu existieren. Der Richter konnte sie auch nicht überprüfen. Es stellte sich heraus, dass ChatGPT sie alle erfunden und Namen und Entscheidungen erfunden hatte. Einer von Matas Anwälten, Steven A. Schwartz, hatte den Chatbot als Assistent genutzt – es war das erste Mal, dass er das Programm für juristische Recherchen nutzte – und war sich, wie Schwartz in einer eidesstattlichen Erklärung schrieb, „nicht der Möglichkeit bewusst, dass sein Inhalt falsch sein könnte.“ ”

Der Vorfall war nur einer von vielen Fällen, in denen generative KI Unwahrheiten verbreitete, ganz zu schweigen von Finanzbetrug, nicht einvernehmlicher Pornos und mehr. Technologieunternehmen vermarkten ihre KI-Produkte und erzielen möglicherweise enorme Gewinne, ohne dass sie für den Schaden, den diese Produkte in der realen Welt anrichten können, verantwortlich sind oder eine rechtliche Kontrolle haben. Die Bundesregierung versucht nun, aufzuholen.

Ende letzten Monats gab die Biden-Regierung bekannt, dass sieben Technologieunternehmen, die an der Spitze der KI-Entwicklung stehen, einer Reihe freiwilliger Verpflichtungen zugestimmt haben, um sicherzustellen, dass ihre Produkte „sicher und vertrauenswürdig“ sind. Diese Zusagen folgen einer Reihe von Gipfeltreffen im Weißen Haus zum Thema KI, Aussagen des Kongresses zur Regulierung der Technologie und Erklärungen verschiedener Regierungsbehörden, dass sie KI ernst nehmen. In der Ankündigung verpflichteten sich OpenAI, Microsoft, Google, Meta und andere, ihre Produkte Tests durch Dritte zu unterziehen, in die Reduzierung von Verzerrungen zu investieren und transparenter über die Fähigkeiten und Einschränkungen ihrer KI-Systeme zu sein.

Lesen Sie: Amerika hat bereits eine KI-Unterschicht

Der Wortlaut ist vielversprechend, aber auch nur ein Versprechen, da es an Durchsetzungsmechanismen und Details zu den nächsten Schritten mangelt. Die Regulierung der KI erfordert eine schwerfällige Bürokratie, die es mit notorisch verschwiegenen Unternehmen und sich schnell entwickelnden Technologien aufnehmen muss. Ein Großteil der Sprache der Biden-Administration greift die PR-Zeilen der Tech-Koryphäen über die weltvernichtenden Fähigkeiten ihrer Produkte auf, etwa Biowaffen und Maschinen, die sich „selbst reproduzieren“. Staatliche Maßnahmen werden von entscheidender Bedeutung sein, um das Leben und die Lebensgrundlagen der Menschen zu schützen – nicht nur vor der vermeintlichen langfristigen Bedrohung durch böse, superintelligente Maschinen, sondern auch vor alltäglichen Bedrohungen. Generative KI weist bereits grobe Vorurteile und Missbrauchspotenzial auf. Und seit mehr als einem Jahrzehnt werden weniger fortschrittliche, aber ähnlich undurchsichtige und oft diskriminierende Algorithmen zur Überprüfung von Lebensläufen und zur Bestimmung der Kreditwürdigkeit, in Diagnosesoftware und als Teil von Gesichtserkennungstools verwendet.

Ich habe mit einer Reihe von Experten gesprochen und am Ende eine Liste mit fünf der effektivsten Möglichkeiten erstellt, mit denen die Regierung die KI regulieren könnte, um das Land vor den alltäglichen Risiken der Technologie sowie ihren eher hypothetischen, apokalyptischen Gefahren zu schützen.

1. Verlassen Sie sich bei nichts auf das Wort von KI-Unternehmen.

Ein für die Chemotherapie beworbenes Medikament muss in klinischen Studien nachweislich einen Nutzen für Krebspatienten haben, etwa durch die Verkleinerung von Tumoren, und dann die FDA-Zulassung erhalten. Dann muss der Hersteller die Nebenwirkungen offenlegen, die bei Patienten auftreten können. Für KI-Produkte besteht jedoch keine solche Verantwortung. „Unternehmen behaupten, dass KI in der Lage sei, X- oder Y-Dinge zu erledigen, belegen dann aber nicht, dass sie es können“, sagte mir Sarah Myers West, Geschäftsführerin des AI Now Institute und ehemalige leitende FTC-Beraterin für KI. Zahlreiche Technologiefirmen wurden dafür kritisiert, dass sie die Voreingenommenheit oder Effektivität ihrer Algorithmen falsch darstellten oder fast keine Beweise lieferten, anhand derer sie bewertet werden könnten.

Die Vorschrift, dass KI-Tools Tests durch Dritte unterzogen werden müssen, um sicherzustellen, dass sie den vereinbarten Kriterien für Voreingenommenheit, Genauigkeit und Interpretierbarkeit entsprechen, „ist ein wirklich wichtiger erster Schritt“, sagt Alexandra Givens, Präsidentin des Center for Democracy and Technology, einer gemeinnützigen Organisation Er setzt sich für Privatsphäre und Menschenrechte im Internet ein und erhält finanzielle Mittel von der Technologiebranche, erzählte er mir. Unternehmen könnten gezwungen werden, Informationen darüber offenzulegen, wie ihre Programme trainiert wurden, welche Einschränkungen die Software aufweist und wie sie potenzielle Schäden abmildern. „Im Moment herrscht eine außergewöhnliche Informationsasymmetrie“, sagte sie – Technologieunternehmen geben in der Regel nur sehr wenig darüber preis, wie sie ihre Software trainieren und validieren. Bei einer Prüfung könnte es darum gehen, zu testen, wie oft beispielsweise ein Computer-Vision-Programm schwarze und weiße Gesichter falsch erkennt oder ob Chatbots bestimmte Jobs mit stereotypen Geschlechterrollen in Verbindung bringen (ChatGPT erklärte einmal, dass Anwälte nicht schwanger sein können, da Anwälte Männer sein müssen).

Alle Experten, mit denen ich gesprochen habe, waren sich einig, dass die Technologieunternehmen selbst nicht in der Lage sein sollten, ihre eigenen Produkte für sicher zu erklären. Andernfalls besteht ein erhebliches Risiko des „Audit-Washing“ – bei dem ein gefährliches Produkt durch einen bedeutungslosen Gütesiegel seine Legitimität erlangt, sagte mir Ellen Goodman, Juraprofessorin an der Rutgers University. Obwohl zahlreiche Vorschläge derzeit nachträgliche Audits fordern, fordern andere, dass Sicherheitsbewertungen viel früher beginnen sollen. Die potenziell risikoreichen Anwendungen von KI bedeuten, dass diese Unternehmen „beweisen müssen, dass ihre Produkte nicht schädlich sind, bevor sie sie auf den Markt bringen können“, sagte mir Safiya Noble, eine Internetwissenschaftlerin an der UCLA.

Auch klare Benchmarks und Lizenzen sind von entscheidender Bedeutung: Ein staatlicher Standard wäre nicht wirksam, wenn er abgeschwächt würde, und ein Sammelsurium an Sicherheitsetiketten würde Verwirrung bis zur Unleserlichkeit stiften, ähnlich wie die Unterschiede zwischen Freilandhaltung, Käfighaltung und Weidehaltung -aufgezogene Eier.

2. Wir brauchen keine Abteilung für KI.

Für die Erstellung grundlegender Bewertungen und Offenlegungen von KI-Systemen wäre keine neue Regierungsbehörde erforderlich, auch wenn dies von einigen Technologiemanagern gefordert wird. Bestehende Gesetze gelten für viele Einsatzmöglichkeiten von KI: Therapie-Bots, automatisierte Finanzassistenten, Suchmaschinen, die wahrheitsgetreue Antworten versprechen. Die zuständigen Bundesbehörden wiederum verfügen über die Fachkompetenz zur Durchsetzung dieser Gesetze. Beispielsweise könnte die FDA einen Therapie-Bot wie ein medizinisches Gerät bewerten und genehmigen müssen. „Wenn man eine zentrale KI-Agentur benennt, die alles erledigt, verliert man den wichtigsten Aspekt der algorithmischen Bewertung“, sagte Givens, „nämlich, in welchem ​​Kontext sie eingesetzt wird und welche Auswirkungen sie hat.“ diese bestimmte Gruppe von Gemeinschaften?“

Lesen Sie: KI-Doomerismus ist ein Lockvogel

Eine neue KI-Abteilung könnte das Risiko eingehen, dass es zu einer Vereinnahmung von Vorschriften kommt, da große KI-Unternehmen die Behörde besetzen, beraten und Lobbyarbeit betreiben. Experten sagten mir stattdessen, dass sie gerne mehr Mittel für bestehende Agenturen sehen würden, um Personal einzustellen und Fachwissen im Bereich KI zu entwickeln, was möglicherweise Maßnahmen des Kongresses erfordern würde. „Es könnte eine sehr aggressive Art und Weise geben, wie bestehende Strafverfolgungsbehörden dazu mehr Befugnisse erhalten könnten, wenn man ihnen mehr Ressourcen zur Verfügung stellen würde“, sagte mir Alex Hanna, Forschungsdirektor am Distributed AI Research Institute.

3. Das Weiße Haus kann mit gutem Beispiel vorangehen.

Eine weitreichende Gesetzgebung zur Regulierung der KI könnte Jahre dauern und von Technologieunternehmen vor Gericht angefochten werden. Ein anderer, möglicherweise schnellerer Ansatz könnte darin bestehen, dass die Bundesregierung bei den von ihr verwendeten KI-Modellen, der von ihr unterstützten Forschung und der von ihr ausgezahlten Finanzierung mit gutem Beispiel vorangeht. Beispielsweise empfahl eine Bundesarbeitsgruppe Anfang des Jahres der Regierung, 2,6 Milliarden US-Dollar für die Finanzierung von KI-Forschung und -Entwicklung bereitzustellen. Jedes Unternehmen, das auf diese Ressourcen zugreifen möchte, könnte gezwungen sein, eine Reihe von Standards einzuhalten, was zu einer branchenweiten Einführung führen könnte – ähnlich den Steueranreizen und Subventionen zur Förderung grüner Energie im Inflation Reduction Act.

Die Regierung ist auch selbst ein wichtiger Käufer und Nutzer von KI und könnte von ihren Anbietern verlangen, sich Prüfungen zu unterziehen und Transparenzberichte zu veröffentlichen. „Das Größte, was die Biden-Regierung tun kann, ist, eine verbindliche Verwaltungsrichtlinie festzulegen, nach der KI nur dann gekauft, entwickelt und verwendet werden kann, wenn sie aussagekräftige Tests auf Sicherheit, Wirksamkeit, Nichtdiskriminierung und den Schutz der Privatsphäre der Menschen durchläuft“, sagte mir Givens.

4. KI braucht ein manipulationssicheres Siegel.

Deepfakes und andere synthetische Medien – Bilder, Videos und Audioclips, die ein KI-System in Sekundenschnelle erstellen kann – haben bereits Fehlinformationen verbreitet und wurden in nicht einvernehmlicher Pornografie verwendet. Zu den freiwilligen Verpflichtungen des letzten Monats gehört die Entwicklung eines Wasserzeichens, um Benutzern mitzuteilen, dass sie mit KI-generierten Inhalten interagieren, aber die Sprache ist vage und der weitere Weg unklar. Viele bestehende Wasserzeichenmethoden, wie zum Beispiel der Block aus Regenbogenpixeln am unteren Rand eines von DALL-E 2 generierten Bildes, lassen sich leicht manipulieren oder entfernen. Eine robustere Methode würde darin bestehen, zu protokollieren, wo, wann und wie ein Medium erstellt wurde – wie ein digitaler Stempel einer Kamera – sowie jede Bearbeitung, die es durchläuft. Unternehmen wie Adobe, Microsoft und Sony arbeiten bereits an der Implementierung eines solchen Standards, auch wenn solche Ansätze für die Öffentlichkeit möglicherweise schwer verständlich sind.

Sam Gregory, der Geschäftsführer der Menschenrechtsorganisation Witness, sagte mir, dass staatliche Standards für die Kennzeichnung von KI-generierten Inhalten in der gesamten KI-Lieferkette von allen durchgesetzt werden müssten, von den Herstellern von Text-zu-Bild-Modellen bis hin zu Apps und Webbrowser-Entwickler. Wir brauchen ein manipulationssicheres Siegel, keinen Aufkleber.

Lesen Sie: Es ist wieder an der Zeit, sich über Deepfakes Gedanken zu machen

Um die Einführung einer Standardmethode zur Kennzeichnung von KI-Inhalten zu fördern, sagte mir Goodman, könnte die Regierung vorschreiben, dass Webbrowser, Computer und andere Geräte die Kennzeichnung erkennen. Ein solches Mandat wäre vergleichbar mit der bundesstaatlichen Anforderung, dass neue Fernseher einen sogenannten „V-Chip“ enthalten müssen, der die von der Fernsehindustrie festgelegten Altersfreigaben anerkennt und den Eltern zum Blockieren von Programmen verwenden können.

5. Schaffen Sie Möglichkeiten, wie Menschen ihre Arbeit vor KI schützen können.

In mehreren hochkarätigen Klagen wird derzeit KI-Modellen wie ChatGPT und dem Bildgenerator Midjourney vorgeworfen, Werke von Schriftstellern und Künstlern gestohlen zu haben. Geistiges Eigentum ist zu einem zentralen Thema in Debatten über generative KI geworden, und zwei allgemeine Arten von Urheberrechtsverletzungen spielen eine Rolle: die Bilder, Texte und anderen Daten, auf denen die Modelle trainiert werden, und die Bilder und Texte, die sie wieder ausspucken.

Auf der Input-Seite könnten Behauptungen, dass generative KI-Modelle gegen das Urheberrecht verstoßen, vor Gericht scheitern, sagte mir Daniel Gervais, Juraprofessor an der Vanderbilt. Das Online-Kopieren von Bildern, Artikeln, Videos und anderen Medien zur Entwicklung eines Trainingsdatensatzes fällt wahrscheinlich unter die „faire Verwendung“, da das Training eines KI-Modells auf dem Material dieses sinnvoll transformiert. Der Standard zum Nachweis von Urheberrechtsverletzungen auf der Ausgabeseite kann ebenfalls Schwierigkeiten bereiten, da der Nachweis, dass eine KI-Ausgabe einem bestimmten urheberrechtlich geschützten Werk ähnelt – nicht nur im Stil von Kehinde Wiley, sondern dem Ebenbild eines seiner Gemälde –, eine Herausforderung darstellt hohe gesetzliche Schwelle.

Gervais sagte, er gehe davon aus, dass eine auf dem Markt ausgehandelte Vereinbarung zwischen Rechteinhabern und KI-Entwicklern vor jeder rechtlichen Norm zustande kommen werde. In der EU können Künstler und Schriftsteller beispielsweise darauf verzichten, dass ihre Arbeit zum Trainieren von KI verwendet wird, was einen Anreiz für einen Deal darstellen könnte, der sowohl im Interesse der Künstler als auch des Silicon Valley liegt. „Die Verlage betrachten dies als Einnahmequelle, und die Technologieunternehmen haben so viel in ihre Technologie investiert“, sagte Gervais. Eine weitere mögliche Option wäre ein noch strengerer Opt-in-Standard, der von jedem, der urheberrechtlich geschütztes Material besitzt, eine ausdrückliche Zustimmung zur Nutzung seiner Daten verlangen würde. In den USA, so Gervais, sei eine Opt-out-Option möglicherweise unnötig. Ein Gesetz zum Schutz des Urheberrechts im Internet macht es illegal, einer Datei ihre „Copyright-Management-Informationen“ zu entziehen, etwa Etiketten mit dem Urheber des Werks und dem Veröffentlichungsdatum, und viele Beobachter behaupten, dass die Erstellung von Datensätzen zum Trainieren generativer KI gegen dieses Gesetz verstößt . Das Bußgeld für die Entfernung solcher Informationen könnte sich auf mehrere Zehntausend US-Dollar pro Werk belaufen, bei anderen Urheberrechtsverletzungen sogar noch höher – ein finanzielles Risiko, das, multipliziert mit vielleicht Millionen von Verstößen in einem Datensatz, für Unternehmen zu groß sein könnte.

Wenn überhaupt, sind nur wenige dieser Policen garantiert. Sie stehen vor zahlreichen praktischen, politischen und rechtlichen Hürden, zu denen nicht zuletzt der beeindruckende Lobbyarm des Silicon Valley zählt. Solche Vorschriften allein werden auch nicht ausreichen, um alle negativen Auswirkungen der Technologie auf die Amerikaner zu stoppen. KI ist voller Datenschutzverletzungen, monopolistischer Geschäftspraktiken und schlechter Behandlung von Arbeitnehmern, die die Technologiebranche seit Jahren plagen.

Aber es kommt zu einer Art Regulierung: Die Biden-Regierung hat erklärt, dass sie an einer parteiübergreifenden Gesetzgebung arbeitet, und sie hat vor Ende des Sommers Leitlinien für den verantwortungsvollen Einsatz von KI durch Bundesbehörden versprochen; Zahlreiche Gesetzesentwürfe liegen dem Kongress vor. Bis dahin werden Technologieunternehmen möglicherweise weiterhin neue und ungetestete Produkte auf den Markt bringen, unabhängig davon, wer oder was dabei unterdrückt wird.

1. Verlassen Sie sich bei nichts auf das Wort von KI-Unternehmen.2. Wir brauchen keine Abteilung für KI.3. Das Weiße Haus kann mit gutem Beispiel vorangehen.4. KI braucht ein manipulationssicheres Siegel.5. Schaffen Sie Möglichkeiten, wie Menschen ihre Arbeit vor KI schützen können.