kunststudent
Active Member
- Registriert
- 16. März 2023
- Beiträge
- 215
Eine Übersetzung von mir, unterstützt durch DeepL Premium.
Originalquelle: https://futureoflife.org/open-letter/pause-giant-ai-experiments/
KI-Systeme mit einer dem Menschen ebenbürtigen Intelligenz, können tiefgreifende Risiken für die Gesellschaft und die Menschheit darstellen.
Das zeigen derzeit umfangreiche Forschungsarbeiten[1] und führende KI-Labors [2] auf.
Wie in den weithin befürworteten KI-Grundsätzen (nach Asilomar) dargelegt, könnte fortgeschrittene KI einen tiefgreifenden Wandel in der Geschichte des Lebens auf der Erde darstellen. Der Wandel sollte mit entsprechender Sorgfalt und entsprechenden Ressourcen geplant und verwaltet werden.
Leider findet eine solche Planung und Verwaltung derzeit nicht statt.
Und das obwohl die KI-Labore in den letzten Monaten in einen außer Kontrolle geratenen Wettlauf um die Entwicklung und den Einsatz immer leistungsfähigerer digitaler Köpfe verwickelt waren, die niemand mehr - nicht einmal ihre Schöpfer - verstehen, nachvollziehen und vorhersagen bzw. zuverlässig kontrollieren kann.
Heutige KI-Systeme werden bei allgemeinen Aufgaben immer konkurrenzfähiger für den Menschen [3] und wir müssen die Frage stellen:
Sollen wir zulassen, dass Maschinen die Informationskanäle mit Propaganda und Unwahrheiten überfluten?
Leistungsstarke KI-Systeme sollten erst dann entwickelt werden, wenn wir sicher sind, dass ihre Auswirkungen positiv und ihre Risiken überschaubar sind.
Dieses Vertrauen muss gut begründet sein und mit dem Ausmaß der potenziellen Auswirkungen eines Systems zunehmen.
In der jüngsten Erklärung von OpenAI zu künstlicher allgemeiner Intelligenz heißt es: "Irgendwann könnte es wichtig sein, eine unabhängige Überprüfung einzuholen, bevor mit dem Training künftiger Systeme begonnen wird, und für die am weitesten fortgeschrittenen Bemühungen zu vereinbaren, die Wachstumsrate der für die Erstellung neuer Modelle verwendeten Daten zu begrenzen."
Wir stimmen dem zu.
Dieser Zeitpunkt ist jetzt gekommen.
Hiermit fordern wir alle KI-Labore auf, die Ausbildung von KI-Systemen, die leistungsfähiger als GPT-4 sind, unverzüglich für mindestens sechs Monate zu unterbrechen. Diese Pause sollte öffentlich und überprüfbar sein und alle wichtigen Akteure einbeziehen.
Wenn eine solche Pause nicht schnell umgesetzt werden kann, sollten die Regierungen eingreifen und ein Moratorium verhängen.
KI-Labore und unabhängige Experten sollten diese Pause nutzen, um gemeinsam eine Reihe gemeinsamer Sicherheitsprotokolle für fortschrittliche KI-Designs und die Entwicklungen zu entwerfen und anfangen sie umzusetzen. Das alles sollte von unabhängigen externen Experten streng geprüft und überwacht werden.
Diese Protokolle sollten gewährleisten, dass Systeme, die sich an sie halten, zweifelsfrei sicher sind [4].
Dies bedeutet keine generelle Pause in der KI-Entwicklung, sondern lediglich eine Abkehr von dem gefährlichen Wettlauf zu immer größeren, unberechenbaren Black-Box-Modellen mit emergenten Fähigkeiten.
Die KI-Forschung und -Entwicklung sollte sich darauf konzentrieren, die heutigen leistungsfähigen, hochmodernen Systeme genauer, sicherer, interpretierbarer, transparenter, robuster, abgestimmter, vertrauenswürdiger und loyaler zu machen.
Parallel dazu müssen die KI-Entwickler mit den politischen Entscheidungsträgern zusammenarbeiten, um die Entwicklung robuster sog. KI-Governance-Systeme drastisch zu beschleunigen.
Diese sollten mindestens Folgendes umfassen:
- neue und fähige Regulierungsbehörden, die sich speziell mit KI befassen;
- die Überwachung und Verfolgung hochleistungsfähiger KI-Systeme und großer Pools von Rechenkapazitäten;
- Herkunfts- und Wasserzeichensysteme, die dabei helfen, echte von synthetischen Daten zu unterscheiden und Modelllecks zu verfolgen;
- ein robustes Prüfungs- und Zertifizierungssystem;
- Haftung für durch KI verursachte Schäden;
- solide öffentliche Finanzierung für technische KI-Sicherheitsforschung;
- gut ausgestattete Institutionen zur Bewältigung der dramatischen wirtschaftlichen und politischen Störungen (insbesondere der Demokratie), die KI verursachen wird.
Die Menschheit kann mit KI eine blühende Zukunft erleben.
Nachdem es uns gelungen ist, leistungsfähige KI-Systeme zu schaffen, können wir nun einen "KI-Sommer" genießen, in dem wir die Früchte ernten, diese Systeme zum eindeutigen Nutzen aller entwickeln und der Gesellschaft eine Chance zur Anpassung geben.
Bei anderen Technologien mit potenziell katastrophalen Auswirkungen auf die Gesellschaft hat die Gesellschaft eine Pause eingelegt, [5] und das können wir auch hier tun.
Genießen wir einen langen KI-Sommer und stürzen wir uns nicht unvorbereitet in den Herbst.
# ENDE der Übersetzung.
Diskussionsrunde eröffnet
Umfrage eingefügt.
Originalquelle: https://futureoflife.org/open-letter/pause-giant-ai-experiments/
Gigantische KI-Experimente stoppen: Ein offener Brief
Wir fordern alle Labore die sich mit KI beschäftigen auf, das Training der KI-Systemen, die leistungsfähiger als GPT-4 sind, sofort für mindestens 6 Monate, auszusetzen.KI-Systeme mit einer dem Menschen ebenbürtigen Intelligenz, können tiefgreifende Risiken für die Gesellschaft und die Menschheit darstellen.
Das zeigen derzeit umfangreiche Forschungsarbeiten[1] und führende KI-Labors [2] auf.
Wie in den weithin befürworteten KI-Grundsätzen (nach Asilomar) dargelegt, könnte fortgeschrittene KI einen tiefgreifenden Wandel in der Geschichte des Lebens auf der Erde darstellen. Der Wandel sollte mit entsprechender Sorgfalt und entsprechenden Ressourcen geplant und verwaltet werden.
Leider findet eine solche Planung und Verwaltung derzeit nicht statt.
Und das obwohl die KI-Labore in den letzten Monaten in einen außer Kontrolle geratenen Wettlauf um die Entwicklung und den Einsatz immer leistungsfähigerer digitaler Köpfe verwickelt waren, die niemand mehr - nicht einmal ihre Schöpfer - verstehen, nachvollziehen und vorhersagen bzw. zuverlässig kontrollieren kann.
Heutige KI-Systeme werden bei allgemeinen Aufgaben immer konkurrenzfähiger für den Menschen [3] und wir müssen die Frage stellen:
Sollen wir zulassen, dass Maschinen die Informationskanäle mit Propaganda und Unwahrheiten überfluten?
- Sollten wir alle Arbeitsplätze automatisieren, auch die Arbeit die uns Menschen erfüllt?
- Sollten wir nicht-menschliche Intelligenzen entwickeln, die uns irgendwann zahlenmäßig überlegen, überlisten, überflüssig machen und ersetzen könnten?
- Sollen wir den Verlust der Kontrolle über unsere Zivilisation riskieren?
Leistungsstarke KI-Systeme sollten erst dann entwickelt werden, wenn wir sicher sind, dass ihre Auswirkungen positiv und ihre Risiken überschaubar sind.
Dieses Vertrauen muss gut begründet sein und mit dem Ausmaß der potenziellen Auswirkungen eines Systems zunehmen.
In der jüngsten Erklärung von OpenAI zu künstlicher allgemeiner Intelligenz heißt es: "Irgendwann könnte es wichtig sein, eine unabhängige Überprüfung einzuholen, bevor mit dem Training künftiger Systeme begonnen wird, und für die am weitesten fortgeschrittenen Bemühungen zu vereinbaren, die Wachstumsrate der für die Erstellung neuer Modelle verwendeten Daten zu begrenzen."
Wir stimmen dem zu.
Dieser Zeitpunkt ist jetzt gekommen.
Hiermit fordern wir alle KI-Labore auf, die Ausbildung von KI-Systemen, die leistungsfähiger als GPT-4 sind, unverzüglich für mindestens sechs Monate zu unterbrechen. Diese Pause sollte öffentlich und überprüfbar sein und alle wichtigen Akteure einbeziehen.
Wenn eine solche Pause nicht schnell umgesetzt werden kann, sollten die Regierungen eingreifen und ein Moratorium verhängen.
KI-Labore und unabhängige Experten sollten diese Pause nutzen, um gemeinsam eine Reihe gemeinsamer Sicherheitsprotokolle für fortschrittliche KI-Designs und die Entwicklungen zu entwerfen und anfangen sie umzusetzen. Das alles sollte von unabhängigen externen Experten streng geprüft und überwacht werden.
Diese Protokolle sollten gewährleisten, dass Systeme, die sich an sie halten, zweifelsfrei sicher sind [4].
Dies bedeutet keine generelle Pause in der KI-Entwicklung, sondern lediglich eine Abkehr von dem gefährlichen Wettlauf zu immer größeren, unberechenbaren Black-Box-Modellen mit emergenten Fähigkeiten.
Die KI-Forschung und -Entwicklung sollte sich darauf konzentrieren, die heutigen leistungsfähigen, hochmodernen Systeme genauer, sicherer, interpretierbarer, transparenter, robuster, abgestimmter, vertrauenswürdiger und loyaler zu machen.
Parallel dazu müssen die KI-Entwickler mit den politischen Entscheidungsträgern zusammenarbeiten, um die Entwicklung robuster sog. KI-Governance-Systeme drastisch zu beschleunigen.
Diese sollten mindestens Folgendes umfassen:
- neue und fähige Regulierungsbehörden, die sich speziell mit KI befassen;
- die Überwachung und Verfolgung hochleistungsfähiger KI-Systeme und großer Pools von Rechenkapazitäten;
- Herkunfts- und Wasserzeichensysteme, die dabei helfen, echte von synthetischen Daten zu unterscheiden und Modelllecks zu verfolgen;
- ein robustes Prüfungs- und Zertifizierungssystem;
- Haftung für durch KI verursachte Schäden;
- solide öffentliche Finanzierung für technische KI-Sicherheitsforschung;
- gut ausgestattete Institutionen zur Bewältigung der dramatischen wirtschaftlichen und politischen Störungen (insbesondere der Demokratie), die KI verursachen wird.
Die Menschheit kann mit KI eine blühende Zukunft erleben.
Nachdem es uns gelungen ist, leistungsfähige KI-Systeme zu schaffen, können wir nun einen "KI-Sommer" genießen, in dem wir die Früchte ernten, diese Systeme zum eindeutigen Nutzen aller entwickeln und der Gesellschaft eine Chance zur Anpassung geben.
Bei anderen Technologien mit potenziell katastrophalen Auswirkungen auf die Gesellschaft hat die Gesellschaft eine Pause eingelegt, [5] und das können wir auch hier tun.
Genießen wir einen langen KI-Sommer und stürzen wir uns nicht unvorbereitet in den Herbst.
[1]
Bender, E. M., Gebru, T., McMillan-Major, A., & Shmitchell, S. (2021, March). On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?. In Proceedings of the 2021 ACM conference on fairness, accountability, and transparency (pp. 610-623).
Bostrom, N. (2016). Superintelligence. Oxford University Press.
Bucknall, B. S., & Dori-Hacohen, S. (2022, July). Current and near-term AI as a potential existential risk factor. In Proceedings of the 2022 AAAI/ACM Conference on AI, Ethics, and Society (pp. 119-129).
Carlsmith, J. (2022). Is Power-Seeking AI an Existential Risk?. arXiv preprint arXiv:2206.13353.
Christian, B. (2020). The Alignment Problem: Machine Learning and human values. Norton & Company.
Cohen, M. et al. (2022). Advanced Artificial Agents Intervene in the Provision of Reward. AI Magazine, 43(3) (pp. 282-293).
Eloundou, T., et al. (2023). GPTs are GPTs: An Early Look at the Labor Market Impact Potential of Large Language Models.
Hendrycks, D., & Mazeika, M. (2022). X-risk Analysis for AI Research. arXiv preprint arXiv:2206.05862.
Ngo, R. (2022). The alignment problem from a deep learning perspective. arXiv preprint arXiv:2209.00626.
Russell, S. (2019). Human Compatible: Artificial Intelligence and the Problem of Control. Viking.
Tegmark, M. (2017). Life 3.0: Being Human in the Age of Artificial Intelligence. Knopf.
Weidinger, L. et al (2021). Ethical and social risks of harm from language models. arXiv preprint arXiv:2112.04359.
[2]
Ordonez, V. et al. (2023, March 16). OpenAI CEO Sam Altman says AI will reshape society, acknowledges risks: 'A little bit scared of this'. ABC News.
Perrigo, B. (2023, January 12). DeepMind CEO Demis Hassabis Urges Caution on AI. Time.
[3]
Bubeck, S. et al. (2023). Sparks of Artificial General Intelligence: Early experiments with GPT-4. arXiv:2303.12712.
OpenAI (2023). GPT-4 Technical Report. arXiv:2303.08774.
[4]
Ample legal precedent exists – for example, the widely adopted OECD AI Principles require that AI systems "function appropriately and do not pose unreasonable safety risk".
[5]
Examples include human cloning, human germline modification, gain-of-function research, and eugenics.
Bender, E. M., Gebru, T., McMillan-Major, A., & Shmitchell, S. (2021, March). On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?. In Proceedings of the 2021 ACM conference on fairness, accountability, and transparency (pp. 610-623).
Bostrom, N. (2016). Superintelligence. Oxford University Press.
Bucknall, B. S., & Dori-Hacohen, S. (2022, July). Current and near-term AI as a potential existential risk factor. In Proceedings of the 2022 AAAI/ACM Conference on AI, Ethics, and Society (pp. 119-129).
Carlsmith, J. (2022). Is Power-Seeking AI an Existential Risk?. arXiv preprint arXiv:2206.13353.
Christian, B. (2020). The Alignment Problem: Machine Learning and human values. Norton & Company.
Cohen, M. et al. (2022). Advanced Artificial Agents Intervene in the Provision of Reward. AI Magazine, 43(3) (pp. 282-293).
Eloundou, T., et al. (2023). GPTs are GPTs: An Early Look at the Labor Market Impact Potential of Large Language Models.
Hendrycks, D., & Mazeika, M. (2022). X-risk Analysis for AI Research. arXiv preprint arXiv:2206.05862.
Ngo, R. (2022). The alignment problem from a deep learning perspective. arXiv preprint arXiv:2209.00626.
Russell, S. (2019). Human Compatible: Artificial Intelligence and the Problem of Control. Viking.
Tegmark, M. (2017). Life 3.0: Being Human in the Age of Artificial Intelligence. Knopf.
Weidinger, L. et al (2021). Ethical and social risks of harm from language models. arXiv preprint arXiv:2112.04359.
[2]
Ordonez, V. et al. (2023, March 16). OpenAI CEO Sam Altman says AI will reshape society, acknowledges risks: 'A little bit scared of this'. ABC News.
Perrigo, B. (2023, January 12). DeepMind CEO Demis Hassabis Urges Caution on AI. Time.
[3]
Bubeck, S. et al. (2023). Sparks of Artificial General Intelligence: Early experiments with GPT-4. arXiv:2303.12712.
OpenAI (2023). GPT-4 Technical Report. arXiv:2303.08774.
[4]
Ample legal precedent exists – for example, the widely adopted OECD AI Principles require that AI systems "function appropriately and do not pose unreasonable safety risk".
[5]
Examples include human cloning, human germline modification, gain-of-function research, and eugenics.
# ENDE der Übersetzung.
Diskussionsrunde eröffnet
Umfrage eingefügt.
Zuletzt bearbeitet: