• Willkommen im denk-Forum für Politik, Philosophie und Kunst!
    Hier findest Du alles zum aktuellen Politikgeschehen, Diskussionen über philosophische Fragen und Kunst
    Registriere Dich kostenlos, dann kannst du eigene Themen verfassen und siehst wesentlich weniger Werbung

[AI + AUTOMATEN + ROBOTER] Magische Maschinen, Künstliche Intelligenz, Kybernetik & Co.

GPT-4 liest Beschreibungen von Sicherheitslücken und nutzt sie aus (c) 09:33 Security Dennis Schirrmacher
Sicherheitsforscher haben unter anderem das große Sprachmodell (Large Language Model, LLM) GPT-4 mit Beschreibungen aus Sicherheitswarnungen gefüttert. Im Anschluss konnte es im Großteil der Fälle die beschriebenen Sicherheitslücken erfolgreich ausnutzen.
Die Forscher geben an, dass GPT-4 in 87 Prozent der Fälle die Lücken erfolgreich attackiert hat. Bei anderen LLMs wie GPT-3.5 lag die Erfolgsquote bei 0 Prozent. Ohne die Informationen aus einer CVE-Beschreibung soll GPT-4 immerhin noch in 7 Prozent der Fälle erfolgreich gewesen sein.

Ein Large Language Model, kurz LLM, ist ein Sprachmodell, das sich durch seine Fähigkeit zur unspezifischen Erzeugung von Texten auszeichnet. Es handelt sich um ein computerlingutistisches Wahrscheinlichkeitsmodell, das statistische Wort- und Satzfolge-Beziehungen aus einer Vielzahl von Textdokumenten durch einen rechenintensiven Trainingsprozesses erworben hat.
Große Sprachmodelle erlangen diese Fähigkeiten durch die Verwendung riesiger Datenmengen, um während des Trainings riesige Mengen von Parametern zu lernen. Dabei verbrauchen sie extrem viele Rechenressourcen.[1] Große Sprachmodelle sind im weiteren Sinne künstliche neuronale Netze (im Grunde genommen sogenannte Transformer[2]) und werden (a priori) entweder durch selbst überwachtes Lernen oder halb überwachte Lernmethoden trainiert.
 
Werbung:
Datenschutzbeschwerde gegen ChatGPT wegen Falschinformationen (c) 30.04.2024 Julius Stiebert
https://posteo.de/news/datenschutzbeschwerde-gegen-chatgpt-wegen-falschinformationen
Der Chatbot ChatGPT soll gegen die DSGVO verstoßen, weil das Werkzeug personenbezogene Daten falsch wiedergibt. Das ist nun Gegenstand einer Datenschutzbeschwerde in Österreich.
Dabei handle es sich “eindeutig um ein strukturelles Problem”. Einem Ende 2023 erschienenen Bericht der New York Times zufolge erfinden Chatbots in mindestens 3 Prozent der Fälle Informationen – bei manchen Systemen sollen es sogar bis zu 27 Prozent sein. Das Erzeugen falscher Informationen wird auch als “KI-Halluzination” bezeichnet.
OpenAI hatte bereits Ärger mit den europäischen Datenschutzvorgaben: Die italienische Datenschutzbehörde hatte ChatGPT im vergangenen Jahr vorübergehend verboten, Nutzerdaten aus Italien zu verarbeiten. Die Behörde hatte OpenAI unter anderem vorgeworfen, es fehle eine Rechtsgrundlage für das “massive Sammeln und Verarbeiten personenbezogener Daten”, um die verwendeten Algorithmen zu trainieren. (dpa / js)
 
Zuletzt bearbeitet:
Zurück
Oben