Datenintelligenz von Platon.
Vertikale Suche & KI.

Neues „Sicherheitskonsortium“ der US-Regierung will KI „überwachen“.

Datum:

Die US-Regierung kündigte ein neues Konsortium an, das die Entwicklung und den Einsatz dessen, was sie als „sichere und vertrauenswürdige“ generative KI bezeichnet, unterstützen soll, während die Behörden darauf drängen, Leitplanken für die Technologie durchzusetzen.

Handelsministerin Gina Raimondo hat das Konsortium am Donnerstag ins Leben gerufen. Mehr als 200 KI-Unternehmen und -Organisationen sind der Gruppe beigetreten, darunter OpenAI, Meta, Google, Amazon, Apple, Microsoft, Anthropic, Nvidia, Intel, IBM und JP Morgan Chase.

Zum Konsortium gehören außerdem Regierungsbehörden, akademische Einrichtungen wie das Massachusetts Institute of Technology und die Johns Hopkins University sowie andere Firmen wie Mastercard, Visa, BP und Qualcomm.

Lies auch:  „Schurkenhafte“ KI lässt die Brüste australischer Abgeordneter im Fernsehen „größer aussehen“. 

KI-Standards setzen

„Die US-Regierung spielt eine wichtige Rolle bei der Festlegung von Standards und der Entwicklung der Instrumente, die wir benötigen, um die Risiken zu mindern und das immense Potenzial der künstlichen Intelligenz zu nutzen“, sagte Raimondo in einem Aussage.

Sie gab bekannt, dass die Gruppe dem US AI Safety Institute unterstellt sein wird und zur Erreichung der in Präsident Joe Bidens Zielen dargelegten Ziele beitragen wird oberster Befehl im Oktober herausgegeben. Die Anordnung konzentrierte sich auf KI-Sicherheit, Datenschutz, Standards und andere Dinge.

Die Arbeit des Konsortiums umfasst die Erstellung von „Richtlinien für Red-Teaming, Fähigkeitsbewertungen, Risikomanagement, Sicherheit und Schutz“. Watermarking synthetische Inhalte“, sagte die Abteilung.

Raimondo später sagte In einer Pressekonferenz hieß es, dass es die Aufgabe der Konsortien sei, „sicherzustellen, dass die Forschung und Tests des AI Safety Institute vollständig in die breite Gemeinschaft integriert sind“.

Sie sprach auch über die Bandbreite der Teilnehmer des Konsortiums, nannte es „die größte Sammlung von Test- und Bewertungsteams“ und konzentrierte sich auf die Schaffung von Grundlagen für „neue Messwissenschaft in der KI-Sicherheit“.

Die Handelsabteilung sagte Im Dezember gab das Unternehmen bekannt, dass es Schritte unternommen hat, um wichtige Standards und Leitlinien für den sicheren Einsatz und Test von KI zu verfassen. Die Entscheidung erfolgte im Anschluss an Bidens Anordnung, die die Behörden anwies, Standards für KI-Tests zu entwickeln und damit verbundene chemische, nukleare und Cybersicherheitsrisiken anzugehen.

Firmen reagieren auf Sicherheitskonsortium

Die Teilnehmer des Konsortiums lobten die Initiative als wichtig für den Aufbau verantwortungsvoller KI.

„Das neue AI Safety Institute wird eine entscheidende Rolle dabei spielen, sicherzustellen, dass in den USA hergestellte künstliche Intelligenz verantwortungsvoll und auf eine Weise genutzt wird, der die Menschen vertrauen können“, sagte Arvind Krishna, Chairman und CEO von IBM, in einer Erklärung.

David Zapolsky, Senior Vice President of Global Public Policy und General Counsel bei Azon, sagte in einem Blog-Post dass die Beteiligung des Unternehmens am Konsortium dazu beitragen wird, einen neuen Standard für KI zu schaffen.

Dieser Standard „wird die Identifizierung bewährter, skalierbarer und interoperabler Messungen und Methoden ermöglichen, um die Entwicklung vertrauenswürdiger KI und deren verantwortungsvollen Einsatz zu fördern“, sagte er.

John Brennan, General Manager des öffentlichen Sektors bei Scale AI, sagte in einem Aussage Das Unternehmen lobt das KI-Sicherheitskonsortium dafür, dass es „erkennt, dass Tests und Evaluierung sowie Red Teaming die besten Möglichkeiten sind, um sicherzustellen, dass KI sicher und vertrauenswürdig ist.“

Ein Red Team ist eine Gruppe, die vorgibt, ein Angreifer zu sein, auf Anweisung dieses Unternehmens in die Sicherheitsinfrastruktur eines Unternehmens eindringt und dann Bericht erstattet, damit das Unternehmen Schwachstellen in seiner Software beheben kann. Die Technik wird seit Jahren eingesetzt, um neue Risiken in der Cybersicherheit zu identifizieren.

KI-Kontroverse

Generative KI ist eine Art künstlicher Intelligenztechnologie, die, wie der Name schon sagt, eine Vielzahl von Inhaltsformen wie Text, Bilder und Audio generieren kann. Dies ist die Art von Technologie hinter ChatGPT von OpenAI und Bard von Google, jetzt bekannt als Gemini.

Die neuartige Technologie wurde jedoch durch Fehlinformationen beeinträchtigt. Es hat sich gezeigt, dass KI-Modelle in der Lage sind, überzeugendes, aber völlig erfundenes Material zu erstellen.

Die Technologiebranche nennt solche selbstbewussten Lügen „Halluzinationen“. Microsofts Bing AI Chat hat es Anfang des Jahres völlig verloren, und ein US-Anwalt in Schwierigkeiten geraten nachdem er falsche Informationen zitiert hatte, die er von ChatGPT erhalten hatte. Es gibt viele Beispiele für KI-Halluzinationen.

Die Forscher hoben die inhärenten Verzerrungen hervor, die in den Daten vorhanden sind, die zum Trainieren von KI-Systemen verwendet werden ChatGPT, was zu Reaktionen führt, die Stereotypen aufrechterhalten. So kam beispielsweise ein AI-Meme-Maker-Filter auf TikTok rüber Fettphobie, einer übergroßen Frau sagend: „Du brauchst einen größeren Strand.“ Mancher KI wurde sogar Rassismus vorgeworfen.

Der vielleicht abschreckendste Aspekt der generativen KI ist ihr Einsatz für böswillige Aktivitäten. Deepfakes, realistische Video- und Audiofälschungen, haben Bedenken hinsichtlich Datenschutz, Missbrauch, politischer Manipulation und der Erosion des Vertrauens in Online-Medien geweckt.

spot_img

Neueste Intelligenz

spot_img

Chat mit uns

Hallo! Wie kann ich dir helfen?