• Willkommen im denk-Forum für Politik, Philosophie und Kunst!
    Hier findest Du alles zum aktuellen Politikgeschehen, Diskussionen über philosophische Fragen und Kunst
    Registriere Dich kostenlos, dann kannst du eigene Themen verfassen und siehst wesentlich weniger Werbung

Gigantische KI-Experimente stoppen: Ein offener Brief

Würdest du das Paper für einen KI-Sommer unterzeichnen (nur eine Stimme) ?

  • Ja

    Stimmen: 1 25,0%
  • Nein

    Stimmen: 3 75,0%

  • Umfrageteilnehmer
    4
Eine digitale ID dient auch nicht als erstes dem Bürger sondern erhöht die Kontrolle.
Ja, der Mensch fürchtet den Kontrollverlust über sich selbst, sobald er sich die Maschine zum Vorbild mittels falscher Relativierung nimmt!
Mir ist bewusst was du machst.
Das sollte reichen.
Wem sollte es denn 'reichen', - deinem EGO ?
Für eine Diskussion mit dir reicht es hingegen, meiner Meinung nach, noch nicht.
Darin stimme ich mit Dir voll überein!
 
Zuletzt bearbeitet:
Werbung:
Gut, also nach 7 Seiten kann man sowas eig. sagen.

Ich hatte mir hier von den Hauptdarstellern echt mehr erwartet...

Langweilig *gähn*

Das Thema geht mir dann langsam auch immer mehr am A** vorbei.
Andere Dinge werden wichtiger...

KI...

Das war doch dieses...

Ja genau...

Läuft ja!

Und was wollte ich nochmal?

Ehm...
 

Wir fordern alle Labore die sich mit KI beschäftigen auf, das Training der KI-Systemen, die leistungsfähiger als GPT-4 sind, sofort für mindestens 6 Monate, auszusetzen.

Aha, warum gerade 6 Monate ? Was ist das konkrete Ziel dieser kurzen Unterbrechung, und wer finanziert sie ?
KI-Systeme mit einer dem Menschen ebenbürtigen Intelligenz, können tiefgreifende Risiken für die Gesellschaft und die Menschheit darstellen.
Das zeigen derzeit umfangreiche Forschungsarbeiten[1] und führende KI-Labors [2] auf.
Ja, trifft für alle größeren Entwicklungen zu. Darf es deshalb keine mehr geben ? Hätte man jene auch in der Vergangenheit verhindern sollen ?
Wie in den weithin befürworteten KI-Grundsätzen (nach Asilomar) dargelegt, könnte fortgeschrittene KI einen tiefgreifenden Wandel in der Geschichte des Lebens auf der Erde darstellen. Der Wandel sollte mit entsprechender Sorgfalt und entsprechenden Ressourcen geplant und verwaltet werden.
Von wem genau ? Mit welcher Kompetenz, mit welcher Befugnis, mit welchen Mitteln und mit welcher Berechtigung ?
Leider findet eine solche Planung und Verwaltung derzeit nicht statt.
Eine solche Planung und Verwaltung findet nicht statt, auch wenn manche Verschwörungsgläubige das Gegenteil behaupten mögen.
Ob das "leider" hier gerechtfertigt ist, darüber mögen die Meinungen divergieren.
Und das obwohl die KI-Labore in den letzten Monaten in einen außer Kontrolle geratenen Wettlauf um die Entwicklung und den Einsatz immer leistungsfähigerer digitaler Köpfe verwickelt waren, die niemand mehr - nicht einmal ihre Schöpfer - verstehen, nachvollziehen und vorhersagen bzw. zuverlässig kontrollieren kann.
"Der Mensch" kann die Umwelt nicht vollständig verstehen, nachvollziehen, vorhersagen oder zuverlässig kontrollieren.
Und schon gar kein einzelner. Und doch lebt er tagtäglich mit und in ihr. Der Mensch versteht ja nicht einmal sich selbst. Wie so vieles muss der Mensch einfach hinnehmen, weil es entweder über seinen Einfluss, seine Macht, seine Fähigkeiten hinaus geht. Er kann lediglich versuchen, das Beste daraus zu machen.
Heutige KI-Systeme werden bei allgemeinen Aufgaben immer konkurrenzfähiger für den Menschen [3] und wir müssen die Frage stellen:
Sollen wir zulassen, dass Maschinen die Informationskanäle mit Propaganda und Unwahrheiten überfluten?
Wir können uns auch die Frage stellen, ob wir es zulassen sollen, dass solche wie Frenilshtar, gun0815, denkmal das tun.
Also: unsere Informationskanäle sind ja schon mit Propaganda und Unwahrheiten überflutet.
Maschinen können bei jenen Propagandisten bei ihren Umtrieben helfen, das ist richtig. Aber sie können ebenso bei dessen
Abwehr helfen. So können Waffen Verbrechern dienen, aber sie dienen auch der Polizei oder den Opfern. Die Existenz der
Waffen wird man nicht verhindern können. Würden sie verboten, wären ihre Entwicklung sowie ihre Anwendung lediglich in
die Illegalität gedrängt, aber nicht verhindert. Letzten Endes stünde die Welt jenen dunklen Gestalten nur wehrlos gegenüber.
Wäre das intelligent ?
  • Sollten wir alle Arbeitsplätze automatisieren, auch die Arbeit die uns Menschen erfüllt?
Das ist keine KI-spezifische Frage. Diese Frage kann man bei jedem Werkzeug stellen.
Es wurden schon unzählige Arbeitsplätze automatisiert. Auch solche, die Menschen erfüllt haben.
Die Frage, ob man das soll oder nicht, wird nicht von oben entschieden. Dass Kühe in großen Betrieben
automatisch gefüttert und gemolken werden hat keine zentrale Stelle entschieden, sondern jeder Bauer
kann das für sich entscheiden.
So wird das auch im Falle der KI sein. Wenn sie eine Arbeit besser erledigt als ein Mensch, wäre es wirklich
rechtens, dies zu verbieten, weil sich einzelne Menschen nichtmenschliche Konkurrenz verbitten ?
Müsste man dann nicht alle Maschinen und sonstige Werkzeuge verbannen ?
  • Sollten wir nicht-menschliche Intelligenzen entwickeln, die uns irgendwann zahlenmäßig überlegen, überlisten, überflüssig machen und ersetzen könnten?
Diese diffuse Urangst wurde auch schon in verschiedenen Werken illustriert. Sei es nun Faust oder Terminator.
Auch ist sie Basis von Rassismus und generell Fremdenfeindlichkeit. Sie kommt nicht von ungefähr, denn die Evolution
hat alle Individuen anerzogen, dass "Fremdes" einem nur in den seltensten Fällen freundlich gesinnt ist. Aber, diese rational
begründete Urangst sollte auf Maß und Verstand treffen, damit sie nicht ausufert. Herbeiphantasieren lässt sich alles Mögliche
und Unmögliche, siehe denkmals mRNA-Gentherapietodesspritze. Sollte wirklich so etwas unser Handeln bestimmen ?
  • Sollen wir den Verlust der Kontrolle über unsere Zivilisation riskieren?
Die Zivilisation ist zu groß und zu chaotisch, um kontrolliert zu werden. Wir können die Kontrolle über sie nicht verlieren, weil wir sie nie gehabt haben.
Diese Entscheidungen dürfen nicht von ungewählte Technik-Anführern getätigt werden.
Natürlich nicht. Aber - von wem dürfte sie getätigt werden ? Und - mit welcher Kompetenz und welcher Befugnis ?
Aber, dies sind letztendlich lediglich rhetorische Fragen, da diese Entscheidung niemandem obliegt.
Beispiel: wer hat entschieden, dass es das Internet geben darf ? Wer hat entschieden, dass es Computer geben darf ?
Entwicklungen mit großem Nutzen lassen sich nicht verhindern, und schon gar nicht durch Beschluss von oben. Und falls,
dann nur in einer Diktatur, siehe Nordkorea, wo aus politischen Gründen den Menschen der Zugang zum freien Internet
verwehrt wird. Aber global existiert keine derartige, zentrale Diktatur.
Leistungsstarke KI-Systeme sollten erst dann entwickelt werden, wenn wir sicher sind, dass ihre Auswirkungen positiv und ihre Risiken überschaubar sind.
Das ist so, als wenn man ein Buch das noch niemand gelesen hat erst dann liest, wenn man sich sicher ist, dass es einem gefällt.
Fakt ist aber, dass alles Neue ein Risiko beinhaltet. Dieses Risiko kann man nur auf Basis der Erfahrung abschätzen und gegen den erwarteten bzw erhofften Nutzen abwägen. So funktioniert das Leben, nicht nur das menschliche.
 
Dieses Vertrauen muss gut begründet sein und mit dem Ausmaß der potenziellen Auswirkungen eines Systems zunehmen.
"potenzielle Auswirkungen" ist ein äußerst schwammiger Begriff.
Jeder Schritt aus dem Haus hat die potenzielle Auswirkung, dass einem ein Meteorit auf den Kopf fällt und man stirbt. Und auch im Haus ist man davor nicht gefeit. Also zu welcher Konsequenz führt dieser Ansatz ?
Aber auch hier - Vertrauen oder nicht, die Entwicklung findet statt. Man kann sich damit befassen, wie sie nach persönlichem Empfinden aussehen "soll", aber kontrollieren lässt sie sich so schlecht wie die Weltpolitik.
In der jüngsten Erklärung von OpenAI zu künstlicher allgemeiner Intelligenz heißt es: "Irgendwann könnte es wichtig sein, eine unabhängige Überprüfung einzuholen, bevor mit dem Training künftiger Systeme begonnen wird, und für die am weitesten fortgeschrittenen Bemühungen zu vereinbaren, die Wachstumsrate der für die Erstellung neuer Modelle verwendeten Daten zu begrenzen."
"Irgendwann könnte es wichtig sein....." auch äußerst schwammig. Und was bitte heißt hier "unabhängig" ? Unabhängig wovon ?
Wir stimmen dem zu.
Dieser Zeitpunkt ist jetzt gekommen.
Also nicht "irgendwann könnte es wichtig sein", wie in der jüngsten Erklärung von OpenAI, sondern "jetzt ist es wichtig".
Falls dem so wäre, wieso wird es in jener jüngsten Erklärung nicht auch so formuliert ?
Welche Information steht jenem "wir" zur Verfügung, die den Leuten von OpenAI nicht zur Verfügung stand ?
Hiermit fordern wir alle KI-Labore auf, die Ausbildung von KI-Systemen, die leistungsfähiger als GPT-4 sind, unverzüglich für mindestens sechs Monate zu unterbrechen. Diese Pause sollte öffentlich und überprüfbar sein und alle wichtigen Akteure einbeziehen.
Fordern lässt sich alles. Nur, wie willst du alle KI-Labore dazu motivieren, dieser Forderung nachzukommen ?
Würdest du deine Arbeit für 6 Monate unterbrechen (inkl. deinen Lohnbezug), weil Außenstehende diffuse Ängste
vor möglichen künftigen Auswirkungen deiner Arbeit haben ?
Wenn eine solche Pause nicht schnell umgesetzt werden kann, sollten die Regierungen eingreifen und ein Moratorium verhängen.
Aha, und alle Regierungen weltweit würden jener Forderung nachkommen ? Und alle Regierten würden der Regierung gehorchen ?
So wie es auch bei Covid und den Klimazielen funktioniert hat und funktioniert ?
KI-Labore und unabhängige Experten sollten diese Pause nutzen, um gemeinsam eine Reihe gemeinsamer Sicherheitsprotokolle für fortschrittliche KI-Designs und die Entwicklungen zu entwerfen und anfangen sie umzusetzen.
Aha, wer wären diese "unabhängigen Experten" ? Wie wird man ein KI-Experte, ohne Verbindungen zu KI-Laboren zu haben ?
Mich deucht, da will jemand einem System kontrollieren ohne auch nur grundlegende Ahnung zu haben, was das System ist oder wie es funktioniert. Dieser Schluss deckt sich auch mit dem Prinzip "Je weniger Ahnung, desto größer die Angst".
Das alles sollte von unabhängigen externen Experten streng geprüft und überwacht werden.
Diese Protokolle sollten gewährleisten, dass Systeme, die sich an sie halten, zweifelsfrei sicher sind [4].
Selbst Altbekanntes ist niemals zweifelsfrei sicher. Sicherheit ist in der Praxis immer relativ, nie absolut und daher nie zweifelsfrei.
Dies bedeutet keine generelle Pause in der KI-Entwicklung, sondern lediglich eine Abkehr von dem gefährlichen Wettlauf zu immer größeren, unberechenbaren Black-Box-Modellen mit emergenten Fähigkeiten.
Fein, und wenn du die Hälfte tatsächlich zur Abkehr bewegen kannst, was hast du dann gewonnen ?
Du überlässt der anderen (sorgloseren, rücksichtsloseren, skrupelloseren, ....) Hälfte das Rennen, was dann wem genau dient ?
Die KI-Forschung und -Entwicklung sollte sich darauf konzentrieren, die heutigen leistungsfähigen, hochmodernen Systeme genauer, sicherer, interpretierbarer, transparenter, robuster, abgestimmter, vertrauenswürdiger und loyaler zu machen.
Forschung und Entwicklung basiert auf dem menschlichen Trieb der Neugier. Diese Neugier motiviert dazu Risiken einzugehen, Neues und erfinden, entwickeln und auszuprobieren. Dass Bekanntes durch Forschung und Entwicklung leistungsfähiger, genauer, sicherer, interpretierbarer, transparenter, robuster, abgestimmter, vertrauenswürdiger und loyaler wird ist ein nützliches Nebenprodukt von Forschung und Entwicklung - aber nicht ihr primärer Treiber.
Denn: auch jene Verbeserungen von Bekannten werden durch Neuheiten erlangt. Beispielsweise, das bekannte Auto wurde durch etwas Neues, dem Sicherheitsgurt, sicherer. Aber auch hier gab es Zweifler, die Angst vor dem Neuen hatten. Der Gurt könnte einschnüren, würgen, sich nicht öffnen lassen, etc...
Also: deine Forderung, was KI-Forschung und -entwicklung deiner Meinung nach tun sollte zeigt, dass du nicht wirklich mit Forschung und Entwicklung vertraut bist.
Parallel dazu müssen die KI-Entwickler mit den politischen Entscheidungsträgern zusammenarbeiten, um die Entwicklung robuster sog. KI-Governance-Systeme drastisch zu beschleunigen.

Diese sollten mindestens Folgendes umfassen:
- neue und fähige Regulierungsbehörden, die sich speziell mit KI befassen;
- die Überwachung und Verfolgung hochleistungsfähiger KI-Systeme und großer Pools von Rechenkapazitäten;
- Herkunfts- und Wasserzeichensysteme, die dabei helfen, echte von synthetischen Daten zu unterscheiden und Modelllecks zu verfolgen;
- ein robustes Prüfungs- und Zertifizierungssystem;
- Haftung für durch KI verursachte Schäden;
- solide öffentliche Finanzierung für technische KI-Sicherheitsforschung;
- gut ausgestattete Institutionen zur Bewältigung der dramatischen wirtschaftlichen und politischen Störungen (insbesondere der Demokratie), die KI verursachen wird.
Politische Entscheidungsträger können Entwicklungen in jene Richtungen vorantreiben, ja.
Andere, nutzengetriebene Entwicklungen abzuwürgen, wird jedoch eher weniger gelingen.
So kann eine Staatführung Forschungsprojekte finanzieren, die auf die Abwehr von Hackerangriffen
auf staatssicherheitsrelevante Daten erschweren sollen. Hackerangriffe und Entwicklung von Malware
wird sie damit aber nicht verhindern.
Die Menschheit kann mit KI eine blühende Zukunft erleben.
Natürlich, und deswegen wird sie auch weltweit erforscht und entwickelt.
Nachdem es uns gelungen ist, leistungsfähige KI-Systeme zu schaffen, können wir nun einen "KI-Sommer" genießen, in dem wir die Früchte ernten, diese Systeme zum eindeutigen Nutzen aller entwickeln und der Gesellschaft eine Chance zur Anpassung geben.
KI ist ein Werkzeug, und mit dem Nutzen wird es so sein wie mit allen Werkzeugen. Manchen nutzen sie mehr, manchen weniger, manche haben durch sie sogar Nachteile, es geschehen Unfälle und manche missbrauchen sie bewusst. Sie intensität der weltweiten Nutzung hängt von der Relation von Nutzen und Kosten ab.
Bei anderen Technologien mit potenziell katastrophalen Auswirkungen auf die Gesellschaft hat die Gesellschaft eine Pause eingelegt, [5] und das können wir auch hier tun.
Nun, oft steht einer Technologie mit potenziell katastrophalen Auswirkungen auch potenziell katastrophale Auswirkungen bei Nichtanwendung gegenüber. Beispielsweise Chirurgie, der vor einigen Jahrhunderten noch Gotteslästerlichkeit unterstellt wurde, die ja potenziell katastrophale Auswirkungen haben kann (Apokalypse, Sintflut, etc...) hätte ein Verbot ihrer in der heutigen Zeit wohl auch potenziell katastrophale Auswirkungen. Weiters, Kernkraft - nimmt man diese als Beispiel für die Pause (momentaner Trend, von Kernkraft abzugehen) auf Grund der Probleme und Gefahren, der mag einmal darüber nachdenken, wenn die Kernkraft nie genutzt worden wäre und der benötigte Energiebedarf in den letzten Jahrzehnten durch die einzigen Alternativen Gas/Öl/Kohle abgedeckt worden wären. Der heute so intensiv beklagte Klimawandel wäre noch deutlich ausgeprägter und die Welt vor ein weit größeres Problem stellen, als die Schäden, die jemals durch Kernkraft angerichtet wurden, das getan haben.
Genießen wir einen langen KI-Sommer und stürzen wir uns nicht unvorbereitet in den Herbst.
Menschheit, verharre beim aktuellen status quo und entwickle dich nicht weiter. Oder wenigstens nur ganz langsam, sodass wir uns nicht so fürchten.
Dass du dich immer schon in deiner Geschwindigkeit entwickelt hast und gar nicht anders kannst, lassen wir außer Acht.

p.s.: Ich spreche dich bezüglich der Inhalte persönlich an, da du offensichtlich mit ihnen übereinstimmt und hier für die Autoren sprechen und für deren Anliegen werben willst. Falls dem nicht so wäre, bitte um entsprechende Distanzierung.
 
Zuletzt bearbeitet:
  • Sollten wir alle Arbeitsplätze automatisieren, auch die Arbeit die uns Menschen erfüllt?
Auf diese Frage möchte ich gesondert und unter einem anderen Aspekt eingehen.
Sie lässt eine Weltsicht durchscheinen, die eine Folge der modernen Zivilisation und
des durch sie gewährleisteten Wohlstand darstellt. Nämlich, dass die Welt dazu da
ist, einem selbst (also dem Träger dieser Weltsicht) Selbstverwirklichung zu ermöglichen.

Aber, Arbeit ist nicht dazu da, den Arbeitstätigen zu erfüllen. Sie kann es tun, und jedem
ist es zu wünschen, aber es ist nicht die Natur oder gar der Sinn von Arbeit. Arbeit wird
durch den Bedarf generiert. Jener, der den Bedarf hat und in der Regel auch die zur
Bedarfsstillung nötige Arbeit entlohnt, wird nicht umsonst ArbeitGEBER genannt.

Wenn es mich erfüllt, Tonvasen zu fabrizieren, dann kann ich es machen. Aber erst wenn
meine Tätigkeit bezahlt wird, wird daraus Arbeit. Ansonsten ist es Hobby, Zeitvertreib, Vergnügen.
 
Wir können uns auch die Frage stellen, ob wir es zulassen sollen, dass solche wie Frenilshtar, gun0815, denkmal das tun.
Es geht um künstliche Intelligenz, Muzmuz. Es ist ein Unterschied, ob man bei bestimmten Menschen argumentativ nicht weiterkommt oder ob man keine Argumente gegen ihre Thesen findet.
Ich schätze, ich hätte schlechte Karten, wenn ich argumentativ gegen die KI zu punkten versuchte - und sie steckt noch in den Kinderschuhen.
So einsichtig bin ich jetzt schon und das wäre gar nicht weiter schlimm, wenn das nicht gleichzeitig bedeuten würde, dass sie mich dann leicht von ihren Thesen überzeugen würde, denn diese meine Schwäche muss ich eingestehen: ich lasse mich von logisch nachvollziehbaren Argumenten gern überzeugen - im Gegensatz zu den von dir erwähnten Usern.;)
 
Ich schätze, ich hätte schlechte Karten, wenn ich argumentativ gegen die KI zu punkten versuchte - und sie steckt noch in den Kinderschuhen.
Einschätzung check - so sehe ich das auch.
Und bei mir spielt oftmals die Ideologie mit rein...

@Anideos
Danke, weil dein Beitrag mal aufzeigt, wie wir Menschen uns auch anpassen werden...

Ich möchte dann sehen, wer zb. vor Gericht gegen KI argumentiert...
Die ersten KI-Richter sind übrigens schon im Probe-Einsatz.

Für ein Urteil werden sicher alle Daten herangezogen die es gibt.
Kein Platz mehr für Fehler, oder einem "Könnte sein".
Nein du kriegst die ultimative Entscheidung.

Für ein erfolgreiches Training einer KI werden große Mengen an Justizdaten benötigt.
Mit der Rechtsverordnung zur Einführung der elektronischen Akte, durch das
Bundesministerium für Justiz, werden nach Abschluss der Einführung im Jahr 2026
erstmals große Mengen an Justizdaten in elektronischer Form verfügbar sein
.

Das Gesetz besagt, dass bis zum 01.01.2026 alle Gerichte in Deutschland auf elektronische
Prozessakten
umgestiegen sein müssen [14].
 
Werbung:
Einschätzung check - so sehe ich das auch.
Und bei mir spielt oftmals die Ideologie mit rein...
Bei mir dominieren gleichermaßen die Bedenken bezüglich KI wie bezüglich Ideologien. Ich stelle mir die Folgen eines Versuchs als verheerend vor, mithilfe der KI die Verbreitung einer Ideologie zu verstärken. Bisher haben Ideologien nur bei solchen Erfolg, die für Ideologien empfänglich sind und das könnte sich ändern, denn die Unterscheidung zwischen richtig und falsch oder echt und gefälscht wäre dann fast unmöglich und die Begründungen plausibel. Der Mensch wird von seinen Emotionen beeinflusst und macht dabei Fehler. Man kann ihn dadurch einschätzen und ihm Glaubwürdigkeit schenken oder nicht. Die KI kennt keine Emotionen, aber sie kann sie simulieren und menschliche Emotionen und Gefühle damit verstärken. Das sogenannte Bauchgefühl der Menschen wäre dann der KI ausgeliefert.
Wenn ich sehe, welche gesellschaftlichen Veränderungen das Internet und die sozialen Medien bisher verursacht haben, wie sie Gesellschaften gespalten haben, dann will ich mir gar nicht vorstellen, wie diese Gesellschaften in einigen Jahren aussehen, wenn man der KI freien Lauf lässt.
Ich bin für Fortschritt, - auch technologischen Fortschritt - denn der Mensch muss seine Potentiale nutzen um zu bestehen, aber der gesellschaftlich kulturelle Fortschritt muss dabei schritthalten, sonst führt der technologische Fortschritt zu einer Katastrophe.
Ich bin gestern Abend bei Maybrit Illner hängengeblieben. Es ging genau um dieses Thema und ich teile die Bedenken Ranga Yogeshwars, was die Gefahren angeht, die von einer ungezügelten KI ausgehen.
 
Zurück
Oben