Datenintelligenz von Platon.
Vertikale Suche & KI.

Skynet Ahoi? Was Sie bei KI-Sicherheitsrisiken der nächsten Generation erwarten können

Datum:

Da die Innovation im Bereich der künstlichen Intelligenz (KI) weiterhin rasant voranschreitet, wird 2024 ein entscheidender Zeitpunkt für Organisationen und Leitungsgremien sein, Sicherheitsstandards, Protokolle und andere Leitplanken festzulegen, um zu verhindern, dass die KI ihnen zuvorkommt, warnen Sicherheitsexperten.

Große Sprachmodelle (LLMs), die auf hochentwickelten Algorithmen und riesigen Datensätzen basieren, demonstrieren ein bemerkenswertes Sprachverständnis und menschenähnliche Konversationsfähigkeiten. Eine der ausgefeiltesten dieser Plattformen ist GPT-4 von OpenAI, das über erweiterte Argumentations- und Problemlösungsfunktionen verfügt und den ChatGPT-Bot des Unternehmens antreibt. Und das Unternehmen hat in Zusammenarbeit mit Microsoft mit der Arbeit an GPT-5 begonnen, wie CEO Sam Altman sagte wird noch viel weiter gehen – bis hin zum Besitz von „Superintelligenz“.

Diese Modelle stellen ein enormes Potenzial für erhebliche Produktivitäts- und Effizienzsteigerungen für Unternehmen dar, Experten sind sich jedoch einig, dass die Zeit für die gesamte Branche reif ist um die inhärenten Sicherheitsrisiken anzugehen sich durch ihre Entwicklung und ihren Einsatz ergeben. In der Tat, aktuelle Forschung von Writerbuddy AI, das ein KI-basiertes Tool zum Schreiben von Inhalten anbietet, hat herausgefunden, dass ChatGPT bereits 14 Milliarden Besuche verzeichnet hat, Tendenz steigend.

Wenn Unternehmen Fortschritte bei der KI erzielen, sollte dies „mit strengen ethischen Überlegungen und Risikobewertungen einhergehen“, sagt Gal Ringel, CEO des auf KI basierenden Datenschutz- und Sicherheitsunternehmens MineOS.

Ist KI eine existenzielle Bedrohung?

Im März begannen Bedenken hinsichtlich der Sicherheit der nächsten KI-Generation zu brodeln, als fast 34,000 Top-Technologen einen offenen Brief unterzeichneten, in dem sie einen Stopp der Entwicklung leistungsstärkerer generativer KI-Systeme forderten GPA-4 von OpenAI. In dem Brief wurden die „erheblichen Risiken“ für die Gesellschaft angeführt, die die Technologie darstellt, und der „außer Kontrolle geratene Wettlauf der KI-Labore um die Entwicklung und den Einsatz immer leistungsfähigerer digitaler Köpfe, die niemand – nicht einmal ihre Schöpfer – verstehen, vorhersagen oder vorhersagen kann.“ zuverlässig kontrollieren.“

Trotz dieser dystopischen Befürchtungen sind die meisten Sicherheitsexperten nicht so besorgt über ein Weltuntergangsszenario, in dem Maschinen schlauer als Menschen werden und die Weltherrschaft übernehmen.

„In dem offenen Brief wurden berechtigte Bedenken hinsichtlich der raschen Weiterentwicklung und möglichen Anwendungen von KI im weitesten Sinne des Wortes ‚Ist das gut für die Menschheit‘ zum Ausdruck gebracht“, sagt Matt Wilson, Director of Sales Engineering beim Cybersicherheitsunternehmen Netrix. „Obwohl die öffentlichen Versionen von KI-Tools in bestimmten Szenarien beeindruckend sind, wirken sie nicht allzu bedrohlich.“

Besorgniserregend ist die Tatsache, dass die Fortschritte und die Einführung von KI zu schnell voranschreiten, als dass die Risiken angemessen gemanagt werden könnten, stellen Forscher fest. „Wir können die Büchse der Pandora nicht wieder verschließen“, bemerkt Patrick Harr, CEO des KI-Sicherheitsanbieters SlashNext.

Darüber hinaus wird der bloße „Versuch, die Innovationsrate in diesem Bereich zu stoppen, nicht dazu beitragen, die damit verbundenen Risiken zu mindern“, die separat angegangen werden müssen, bemerkt Marcus Fowler, CEO des KI-Sicherheitsunternehmens DarkTrace Federal. Das bedeute nicht, dass die KI-Entwicklung ungebremst weitergehen dürfe, sagt er. Im Gegenteil: Das Tempo der Risikobewertung und der Umsetzung geeigneter Schutzmaßnahmen sollte dem Tempo entsprechen, mit dem LLMs ausgebildet und weiterentwickelt werden.

„Die KI-Technologie entwickelt sich schnell weiter, daher müssen Regierungen und Organisationen, die KI nutzen, auch die Diskussionen über die KI-Sicherheit beschleunigen“, erklärt Fowler.

Generative KI-Risiken

Generative KI birgt mehrere allgemein anerkannte Risiken, die berücksichtigt werden müssen und nur noch schlimmer werden, wenn künftige Generationen der Technologie intelligenter werden. Zum Glück für die Menschen stellt bisher keiner von ihnen ein Science-Fiction-Weltuntergangsszenario dar, in dem die KI sich verschworen hat, um ihre Schöpfer zu zerstören.

Stattdessen umfassen sie weitaus bekanntere Bedrohungen wie Datenlecks, möglicherweise geschäftssensibler Informationen; Missbrauch für böswillige Aktivitäten; und ungenaue Ausgaben, die Benutzer irreführen oder verwirren können, was letztendlich negative geschäftliche Folgen haben kann.

Da LLMs Zugriff auf große Datenmengen benötigen, um genaue und kontextrelevante Ergebnisse bereitzustellen, können vertrauliche Informationen unbeabsichtigt preisgegeben oder missbraucht werden.

„Das Hauptrisiko besteht darin, dass die Mitarbeiter es füttern mit geschäftssensiblen Informationen wenn man es darum bittet, einen Plan zu schreiben oder E-Mails oder Geschäftsunterlagen mit firmeneigenen Informationen umzuformulieren“, bemerkt Ringel.

Aus Sicht eines Cyberangriffs haben Bedrohungsakteure bereits unzählige Möglichkeiten gefunden, ChatGPT und andere KI-Systeme als Waffe einzusetzen. Eine Möglichkeit bestand darin, die Modelle zu nutzen, um ausgefeilte Business Email Compromise (BEC) und andere Phishing-Angriffe zu erstellen, die die Erstellung von Social-Engineering-basierten, personalisierten Nachrichten erfordern, die auf Erfolg ausgelegt sind.

„Bei Malware ermöglicht ChatGPT Cyberkriminellen, unendlich viele Codevariationen zu erstellen, um den Malware-Erkennungs-Engines immer einen Schritt voraus zu sein“, sagt Harr.

KI-Halluzinationen stellen außerdem eine erhebliche Sicherheitsbedrohung dar und ermöglichen es böswilligen Akteuren, LLM-basierte Technologien wie ChatGPT auf einzigartige Weise auszurüsten. Eine KI-Halluzination ist eine plausible Reaktion der KI, die unzureichend, voreingenommen oder völlig unwahr ist. „Fiktive oder andere unerwünschte Reaktionen können Unternehmen zu fehlerhaften Entscheidungen, Prozessen und irreführender Kommunikation verleiten“, warnt Avivah Litan, Vizepräsidentin von Gartner.

Bedrohungsakteure können diese Halluzinationen auch nutzen, um LLMs zu vergiften und „als Antwort auf eine Frage spezifische Fehlinformationen zu generieren“, beobachtet Michael Rinehart, Vizepräsident für KI beim Datensicherheitsanbieter Securiti. „Dies lässt sich auf die Generierung anfälliger Quellcodes und möglicherweise auf Chat-Modelle ausweiten, die Benutzer einer Website zu unsicheren Aktionen verleiten können.“

Angreifer können sogar so weit gehen Veröffentlichen Sie schädliche Versionen von Softwarepaketen die ein LLM einem Softwareentwickler empfehlen könnte, weil er glaubt, dass es sich um eine legitime Lösung für ein Problem handelt. Auf diese Weise können Angreifer die KI weiter als Waffe einsetzen, um Angriffe auf die Lieferkette durchzuführen.

Der Weg nach vorn

Die Bewältigung dieser Risiken erfordert maßvolles und kollektives Handeln, bevor die KI-Innovation die Fähigkeit der Branche, sie zu kontrollieren, übersteigt, weisen Experten darauf hin. Sie haben aber auch Ideen, wie man das Problem der KI angehen kann.

Harr glaubt an ein „Bekämpfe die KI mit A”-Strategie, bei der „Fortschritte bei Sicherheitslösungen und Strategien zur Abwehr von durch KI verursachten Risiken in gleichem oder höherem Tempo erfolgen müssen.“

„Der Schutz der Cybersicherheit muss KI nutzen, um Cyberbedrohungen mithilfe von KI-Technologie erfolgreich zu bekämpfen“, fügt er hinzu. „Im Vergleich dazu haben veraltete Sicherheitstechnologien gegen diese Angriffe keine Chance.“

Allerdings sollten Unternehmen bei der Einführung von KI auch einen maßvollen Ansatz verfolgen – einschließlich KI-basierte Sicherheitslösungen – Damit sie nicht noch mehr Risiken in ihre Umgebung bringen, warnt Wilson von Netrix.

„Verstehen Sie, was KI ist und was nicht“, rät er. „Fordern Sie Anbieter, die behaupten, KI einzusetzen, auf, zu beschreiben, was sie tut, wie sie ihre Lösung verbessert und warum dies für Ihr Unternehmen wichtig ist.“

Rinehart von Securiti bietet einen zweistufigen Ansatz für die schrittweise Einführung von KI in einer Umgebung durch die Bereitstellung gezielter Lösungen und die anschließende Einrichtung von Leitplanken, bevor das Unternehmen unnötigen Risiken ausgesetzt wird.

„Übernehmen Sie zunächst anwendungsspezifische Modelle, möglicherweise ergänzt durch Wissensdatenbanken, die darauf zugeschnitten sind, in bestimmten Anwendungsfällen einen Mehrwert zu bieten“, sagt er. „Dann … implementieren Sie ein Überwachungssystem, um diese Modelle zu schützen, indem die Nachrichten an und von ihnen auf Datenschutz- und Sicherheitsprobleme untersucht werden.“

Experten empfehlen außerdem, Sicherheitsrichtlinien und -verfahren rund um die KI einzurichten, bevor sie eingesetzt wird, und nicht erst im Nachhinein, um das Risiko zu mindern. Sie können sogar einen eigenen KI-Risikobeauftragten oder eine Task Force einrichten, um die Einhaltung zu überwachen.

Außerhalb des Unternehmens muss auch die Branche als Ganzes Maßnahmen ergreifen, um Sicherheitsstandards und -praktiken rund um die KI einzuführen, die jeder, der die Technologie entwickelt und nutzt, übernehmen kann – etwas, das kollektives Handeln sowohl des öffentlichen als auch des privaten Sektors auf globaler Ebene erfordert , sagt Fowler von DarkTrace Federal.

Er zitiert Richtlinien für den Aufbau sicherer KI-Systeme veröffentlicht gemeinsam von der US-amerikanischen Cybersecurity and Infrastructure Security Agency (CISA) und dem britischen National Cyber ​​Security Centre (NCSC) als Beispiel für die Art von Bemühungen, die die weitere Entwicklung der KI begleiten sollten.

„Im Wesentlichen“, sagt Rinehart von Securiti, „wird das Jahr 2024 Zeuge einer raschen Anpassung sowohl traditioneller Sicherheit als auch modernster KI-Techniken sein, um Benutzer und Daten in dieser aufkommenden generativen KI-Ära zu schützen.“

spot_img

Neueste Intelligenz

spot_img

Chat mit uns

Hallo! Wie kann ich dir helfen?