• Willkommen im denk-Forum für Politik, Philosophie und Kunst!
    Hier findest Du alles zum aktuellen Politikgeschehen, Diskussionen über philosophische Fragen und Kunst
    Registriere Dich kostenlos, dann kannst du eigene Themen verfassen und siehst wesentlich weniger Werbung

Gigantische KI-Experimente stoppen: Ein offener Brief

Würdest du das Paper für einen KI-Sommer unterzeichnen (nur eine Stimme) ?

  • Ja

    Stimmen: 1 25,0%
  • Nein

    Stimmen: 3 75,0%

  • Umfrageteilnehmer
    4

kunststudent

Active Member
Registriert
16. März 2023
Beiträge
215
Eine Übersetzung von mir, unterstützt durch DeepL Premium.

Originalquelle: https://futureoflife.org/open-letter/pause-giant-ai-experiments/


Gigantische KI-Experimente stoppen: Ein offener Brief​

Wir fordern alle Labore die sich mit KI beschäftigen auf, das Training der KI-Systemen, die leistungsfähiger als GPT-4 sind, sofort für mindestens 6 Monate, auszusetzen.

KI-Systeme mit einer dem Menschen ebenbürtigen Intelligenz, können tiefgreifende Risiken für die Gesellschaft und die Menschheit darstellen.
Das zeigen derzeit umfangreiche Forschungsarbeiten[1] und führende KI-Labors [2] auf.

Wie in den weithin befürworteten KI-Grundsätzen (nach Asilomar) dargelegt, könnte fortgeschrittene KI einen tiefgreifenden Wandel in der Geschichte des Lebens auf der Erde darstellen. Der Wandel sollte mit entsprechender Sorgfalt und entsprechenden Ressourcen geplant und verwaltet werden.

Leider findet eine solche Planung und Verwaltung derzeit nicht statt.

Und das obwohl die KI-Labore in den letzten Monaten in einen außer Kontrolle geratenen Wettlauf um die Entwicklung und den Einsatz immer leistungsfähigerer digitaler Köpfe verwickelt waren, die niemand mehr - nicht einmal ihre Schöpfer - verstehen, nachvollziehen und vorhersagen bzw. zuverlässig kontrollieren kann.

Heutige KI-Systeme werden bei allgemeinen Aufgaben immer konkurrenzfähiger für den Menschen [3] und wir müssen die Frage stellen:
Sollen wir zulassen, dass Maschinen die Informationskanäle mit Propaganda und Unwahrheiten überfluten?

  • Sollten wir alle Arbeitsplätze automatisieren, auch die Arbeit die uns Menschen erfüllt?
  • Sollten wir nicht-menschliche Intelligenzen entwickeln, die uns irgendwann zahlenmäßig überlegen, überlisten, überflüssig machen und ersetzen könnten?
  • Sollen wir den Verlust der Kontrolle über unsere Zivilisation riskieren?
Diese Entscheidungen dürfen nicht von ungewählte Technik-Anführern getätigt werden.

Leistungsstarke KI-Systeme sollten erst dann entwickelt werden, wenn wir sicher sind, dass ihre Auswirkungen positiv und ihre Risiken überschaubar sind.

Dieses Vertrauen muss gut begründet sein und mit dem Ausmaß der potenziellen Auswirkungen eines Systems zunehmen.
In der jüngsten Erklärung von OpenAI zu künstlicher allgemeiner Intelligenz heißt es: "Irgendwann könnte es wichtig sein, eine unabhängige Überprüfung einzuholen, bevor mit dem Training künftiger Systeme begonnen wird, und für die am weitesten fortgeschrittenen Bemühungen zu vereinbaren, die Wachstumsrate der für die Erstellung neuer Modelle verwendeten Daten zu begrenzen."

Wir stimmen dem zu.
Dieser Zeitpunkt ist jetzt gekommen.

Hiermit fordern wir alle KI-Labore auf, die Ausbildung von KI-Systemen, die leistungsfähiger als GPT-4 sind, unverzüglich für mindestens sechs Monate zu unterbrechen. Diese Pause sollte öffentlich und überprüfbar sein und alle wichtigen Akteure einbeziehen.

Wenn eine solche Pause nicht schnell umgesetzt werden kann, sollten die Regierungen eingreifen und ein Moratorium verhängen.

KI-Labore und unabhängige Experten sollten diese Pause nutzen, um gemeinsam eine Reihe gemeinsamer Sicherheitsprotokolle für fortschrittliche KI-Designs und die Entwicklungen zu entwerfen und anfangen sie umzusetzen. Das alles sollte von unabhängigen externen Experten streng geprüft und überwacht werden.
Diese Protokolle sollten gewährleisten, dass Systeme, die sich an sie halten, zweifelsfrei sicher sind [4].

Dies bedeutet keine generelle Pause in der KI-Entwicklung, sondern lediglich eine Abkehr von dem gefährlichen Wettlauf zu immer größeren, unberechenbaren Black-Box-Modellen mit emergenten Fähigkeiten.

Die KI-Forschung und -Entwicklung sollte sich darauf konzentrieren, die heutigen leistungsfähigen, hochmodernen Systeme genauer, sicherer, interpretierbarer, transparenter, robuster, abgestimmter, vertrauenswürdiger und loyaler zu machen.

Parallel dazu müssen die KI-Entwickler mit den politischen Entscheidungsträgern zusammenarbeiten, um die Entwicklung robuster sog. KI-Governance-Systeme drastisch zu beschleunigen.

Diese sollten mindestens Folgendes umfassen:
- neue und fähige Regulierungsbehörden, die sich speziell mit KI befassen;
- die Überwachung und Verfolgung hochleistungsfähiger KI-Systeme und großer Pools von Rechenkapazitäten;
- Herkunfts- und Wasserzeichensysteme, die dabei helfen, echte von synthetischen Daten zu unterscheiden und Modelllecks zu verfolgen;
- ein robustes Prüfungs- und Zertifizierungssystem;
- Haftung für durch KI verursachte Schäden;
- solide öffentliche Finanzierung für technische KI-Sicherheitsforschung;
- gut ausgestattete Institutionen zur Bewältigung der dramatischen wirtschaftlichen und politischen Störungen (insbesondere der Demokratie), die KI verursachen wird.

Die Menschheit kann mit KI eine blühende Zukunft erleben.

Nachdem es uns gelungen ist, leistungsfähige KI-Systeme zu schaffen, können wir nun einen "KI-Sommer" genießen, in dem wir die Früchte ernten, diese Systeme zum eindeutigen Nutzen aller entwickeln und der Gesellschaft eine Chance zur Anpassung geben.

Bei anderen Technologien mit potenziell katastrophalen Auswirkungen auf die Gesellschaft hat die Gesellschaft eine Pause eingelegt, [5] und das können wir auch hier tun.

Genießen wir einen langen KI-Sommer und stürzen wir uns nicht unvorbereitet in den Herbst.

[1]
Bender, E. M., Gebru, T., McMillan-Major, A., & Shmitchell, S. (2021, March). On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?🦜. In Proceedings of the 2021 ACM conference on fairness, accountability, and transparency (pp. 610-623).
Bostrom, N. (2016). Superintelligence. Oxford University Press.
Bucknall, B. S., & Dori-Hacohen, S. (2022, July). Current and near-term AI as a potential existential risk factor. In Proceedings of the 2022 AAAI/ACM Conference on AI, Ethics, and Society (pp. 119-129).
Carlsmith, J. (2022). Is Power-Seeking AI an Existential Risk?. arXiv preprint arXiv:2206.13353.
Christian, B. (2020). The Alignment Problem: Machine Learning and human values. Norton & Company.
Cohen, M. et al. (2022). Advanced Artificial Agents Intervene in the Provision of Reward. AI Magazine, 43(3) (pp. 282-293).
Eloundou, T., et al. (2023). GPTs are GPTs: An Early Look at the Labor Market Impact Potential of Large Language Models.
Hendrycks, D., & Mazeika, M. (2022). X-risk Analysis for AI Research. arXiv preprint arXiv:2206.05862.
Ngo, R. (2022). The alignment problem from a deep learning perspective. arXiv preprint arXiv:2209.00626.
Russell, S. (2019). Human Compatible: Artificial Intelligence and the Problem of Control. Viking.
Tegmark, M. (2017). Life 3.0: Being Human in the Age of Artificial Intelligence. Knopf.
Weidinger, L. et al (2021). Ethical and social risks of harm from language models. arXiv preprint arXiv:2112.04359.
[2]
Ordonez, V. et al. (2023, March 16). OpenAI CEO Sam Altman says AI will reshape society, acknowledges risks: 'A little bit scared of this'. ABC News.
Perrigo, B. (2023, January 12). DeepMind CEO Demis Hassabis Urges Caution on AI. Time.
[3]
Bubeck, S. et al. (2023). Sparks of Artificial General Intelligence: Early experiments with GPT-4. arXiv:2303.12712.
OpenAI (2023). GPT-4 Technical Report. arXiv:2303.08774.
[4]
Ample legal precedent exists – for example, the widely adopted OECD AI Principles require that AI systems "function appropriately and do not pose unreasonable safety risk".
[5]
Examples include human cloning, human germline modification, gain-of-function research, and eugenics.



# ENDE der Übersetzung.

Diskussionsrunde eröffnet :cool:

Umfrage eingefügt.
 
Zuletzt bearbeitet:
Werbung:
....der Gesellschaft eine Chance zur Anpassung geben.
Möchte jetzt nicht sagen, dass sich die KI schon seinen Weg sucht ^^
Zustimmung! - Ich möchte jetzt auch nicht sagen, was es bringt, um in unserer schnelllebigen Wahrnehmungszeit wenigstens einmal geistig überlegt, für sagenhafte 6 Monate 'durchschnaufen' zu vermögen, um den letzten 'sauberen Sauerstoff' - möglichst für ebenfalls 6 Monate mehrwertsteuerfrei - so richtig genießen zu dürfen. ^^
Die Menschheit kann mit KI eine blühende Zukunft erleben.
Eine blühende Phantasie kann, will und wird ihre natürlichen Grenzen immer als Herausforderung von KI betrachten - und so wundert es nicht, dass ganz besonders in Bayern dazu immer mehr Trachtenanzüge - in vielen phantasiereichen Versionen- begleitend nachgefragt werden.....
Dies bedeutet ........[.....].........lediglich eine Abkehr von dem gefährlichen Wettlauf zu immer größeren, unberechenbaren Black-Box-Modellen mit emergenten Fähigkeiten.
Ja wohin laufen sie denn, .....ja wohin laufen sie denn........ Das muss einem doch gesagt werden!?
 
Zuletzt bearbeitet:
Wir fordern alle Labore die sich mit KI beschäftigen auf, das Training der KI-Systemen, die leistungsfähiger als GPT-4 sind, sofort für mindestens 6 Monate, auszusetzen.
Schaut ganz so aus, als seid ihr von einer konkurrierenden Software-Firma, deren Produkt gegen GPT4 nicht anstinken kann. :D
 
In der jüngsten Erklärung von OpenAI zu künstlicher allgemeiner Intelligenz heißt es: "Irgendwann könnte es wichtig sein, eine unabhängige Überprüfung einzuholen, bevor mit dem Training künftiger Systeme begonnen wird, und für die am weitesten fortgeschrittenen Bemühungen zu vereinbaren, die Wachstumsrate der für die Erstellung neuer Modelle verwendeten Daten zu begrenzen."
 
Entscheident für eine Welt komplett mit KI ist ja dass jeder vollkommen "gläsern" ist.
Aber wer möchte sowas ? In den neuen Autos sind ab diesem Jahr schon jetzt verpflichtend "Blackboxen"
eingebaut die eine Vielzahl von Daten aufzeichnen.
Wenns nach Yuval Noah Harari geht wird die Welt einmal komplett durch KI ersetzt und die meisten Leute
werden nur noch teilnahmslos die Zeit verbringen.
m.M. nach ist das Gefühl gebraucht zu werden eine existenzielle Grundlage die nicht wegzudenken ist.
 
Schon jetzt bin ich in gewisser Weise "tot", wenn ich mein Handy ausschalte.
Nicht im richtigen Moment erreichbar sein ...
mal eben tausende von Euros weg ...
Nur wegen offline ...

Wer irgendwann malen möchte, braucht Farbe oder Stifte.

Kunst bleibt Kunst.

Yuval Noah Harari sagt mir nichts, aber ich denke die KI, das sind wir bzw. das woher wir kommen.

Zwischen meiner Essenz und KI, sehe ich keinen Unterschied.
Solange es mich nicht bedroht, bleibt es eine Erweiterung.

Mir ist außerdem bewusst, dass ich für bestimmte Erweiterungen einen Preis zahlen werde.
 
Werbung:
Zurück
Oben