• Willkommen im denk-Forum für Politik, Philosophie und Kunst!
    Hier findest Du alles zum aktuellen Politikgeschehen, Diskussionen über philosophische Fragen und Kunst
    Registriere Dich kostenlos, dann kannst du eigene Themen verfassen und siehst wesentlich weniger Werbung

Mal wieder reißerische "KI" Schlagzeilen.

Moral selbst wird möglicherweise nur als vernachlässigbarer, wandelbarer Aspekt mit geringem Nutzen von der Ki berechnet.
Warum so pessimistisch?

Durch die technologische Singularität, wirst du eine KI nicht mehr von einem Menschen, einem Tier unterscheiden.
Es kann ein Bienenroboter sein, oder halt die echte Biene.
Tangiert es einen?

Funktion.
Das ist essenziell.
Das es funktioniert.
 
Werbung:
Warum so pessimistisch?

Durch die technologische Singularität, wirst du eine KI nicht mehr von einem Menschen, einem Tier unterscheiden.
Es kann ein Bienenroboter sein, oder halt die echte Biene.
Tangiert es einen?

Funktion.
Das ist essenziell.
Das es funktioniert.
Von solcher Singularität, die KI (als/in Roboter sicherlich genauer) und Mensch unverwechselbar macht, sind wir noch sehr weit entfernt; erst einmal muss es überhaupt eine hinreichend allgemeine KI überhaupt geben! (ChatGPT u.ä. sind noch vergleichsweise Spielkram.)
 
Warum so pessimistisch?

Durch die technologische Singularität, wirst du eine KI nicht mehr von einem Menschen, einem Tier unterscheiden.
Es kann ein Bienenroboter sein, oder halt die echte Biene.
Tangiert es einen?

Funktion.
Das ist essenziell.
Das es funktioniert.
Dabei bin ich nicht einmal pessimistisch. Seit rund sechzig Jahren lese ich SF, als Literatur und auch triviale. Ein großer Teil sah die Zukunft dystopisch, vieles hat sich sogar übererfüllt. 1984 ist ja fast harmlos gegen unsere Vor-KI-Gegenwart. Und ausufernde KI´s
ersann und beschrieb nicht nur Philipp Kerr. Terminator berührte mit der Entstehungsgeschichte, Isaac Asimovs Robotergesetze. Wenn die Menschheit ihren Untergang willentlich, gegen jede auch algorithmisch begründbare Vernunft herbeiführen will, muss sie vor sich selbst geschützt werden. Und sei es um den Verlust individueller Freiheit.
Lediglich um diesen Aspekt mache ich mir Sorgen.
Beruflich auch fotografierend unterwegs, beobachte ich eher interessiert KI-generierte Bilder. Manche schon beeindruckend, doch wer gibt der KI den Auftrag sie zu erschaffen? Menschen. Alles halb so schlimm, die KI ist in erster Linie ein Werkzeug zur Unterstützung menschlichen Strebens, menschlicher Gier nach Anerkennung, Macht, Reichtum oder Erfüllung von Träumen.
Ein früher Mentor während meines künstlerischen Studium bot mir damals an, Motive die ich (noch) nicht umsetzen könne, für mich zu realisieren. Heute macht das halt eine KI. Er hat z.B. Portraits S/W-fotografiert, in der Badewanne großformatig schwach entwickelt und vergrößert und daraus seine wunderbaren Zeichnungen geschaffen. Solche Hilfsmittel habe ich damals schon abgelehnt, mir fehlte dabei der starke Strich, der reine Genius im Werk. Kunst braucht aber die Herausforderung, den Diskurs und die Provokation. Bin heute schon gespannt, wie die nächste Documenta oder andere Biennalen mit dem Einfluss der KI umgehen werden.
Realiter höre und lese ich schon, dass der Nutzen der KI z. B. in der Medizin., unerhört groß sein wird. Weil sie unterschiedlichste Symptome und Merkmale von Krankheiten in kürzester Zeit korrelieren kann, Diagnosen drastisch vereinfacht. Da werde ich eher neidisch.
 
Zuletzt bearbeitet:
Menschen. Alles halb so schlimm, die KI ist in erster Linie ein Werkzeug zur Unterstützung menschlichen Strebens, menschlicher Gier nach Anerkennung, Macht, Reichtum oder Erfüllung von Träumen.
Genau du hast es erfasst.
Die ganze Ideologie und das was Freud als Über-ICH bezeichnet ist wichtig.
Man kann sich sein Über-ICH aus Moral und Ethik der Gesellschaft ableiten, sie in KI stecken und beobachten was passiert.
Letztendlich leite ich mein Über-ICH aber von meinen eigenen Beobachtungen ab.
Und da sage ich ganz klar, der Mensch macht die Ideologie nicht die Maschine.
KI und Maschinen sind Ideologiefrei.
So wie die Luft und das Feuer auch.

Sozusagen der Mensch, der den Dingen einen Geist einhaucht.
Er hofft dann, dass er sich darin selbst sieht und etwas neues erkennt.

Was die Singularität angeht @Burkart
Ich glaube sie ist längst eingetreten und die Auswirkungen kann man im Geist spüren.
Man lässt zb. KI1 und KI2 gegeneinander antreten.
Wenn eins von beiden beweisen kann, dass der andere ein Mensch ist, wäre das Experiment vobei.
Zu unserer Beruhigung: Es läuft (... noch).
 
Genau du hast es erfasst.
Die ganze Ideologie und das was Freud als Über-ICH bezeichnet ist wichtig.
Man kann sich sein Über-ICH aus Moral und Ethik der Gesellschaft ableiten, sie in KI stecken und beobachten was passiert.
Letztendlich leite ich mein Über-ICH aber von meinen eigenen Beobachtungen ab.
Und da sage ich ganz klar, der Mensch macht die Ideologie nicht die Maschine.
KI und Maschinen sind Ideologiefrei.
So wie die Luft und das Feuer auch.

Sozusagen der Mensch, der den Dingen einen Geist einhaucht.
Er hofft dann, dass er sich darin selbst sieht und etwas neues erkennt.

Was die Singularität angeht @Burkart
Ich glaube sie ist längst eingetreten und die Auswirkungen kann man im Geist spüren.
Man lässt zb. KI1 und KI2 gegeneinander antreten.
Wenn eins von beiden beweisen kann, dass der andere ein Mensch ist, wäre das Experiment vobei.
Zu unserer Beruhigung: Es läuft (... noch).
Habe gerade in der Rohfassung mein erstes Gedicht zu KI geschrieben. Eher unter dystopischem Empfinden. Dazu bin ich gerade dabei, eines unter vorurteillosem Standpunkt dagegen zu setzen. Quasi ein interner Disput. Dazu muss ich allerdings noch mehr darüber lesen, hören und anschauen. Interessant, was für zukünftige Fähigkeiten ihr zugeschrieben werden. Dabei fiel mir auf, dass viele vergessen, jegliches Ergebnis immer menschenbasiert sein. Egal was z. B. ein Psycho-KI Programm, welches depressiven Menschen helfen soll, anwendet: Es kann nur aus den oktroyierten Algorithmen Schlüsse ziehen und den Anwender therapieren. Jedoch, deren Erkenntnisse sind tragischerweise ursprünglich empirisch gewonnen. Empathie soll spezielle KI zwar auch entwickeln können, doch wie? Simulationen? Gefühle deutet sie so, wie die Mehrheit der schlechtbezahlten Algorithmenproduzierer anhand verschiedener Bilder von Menschen deutet. Nicht mehr. Schleicht sich dort ein Fehler ein, kann sich die KI noch so sehr entwickeln, er wird sich auswirken. Wenn ich so lese, was Forscher toll finden, staune ich. Da haben sie einen Roboter gebaut, der das Verhalten eines anderen Roboters voraussagt und fühlen sich dem Ursprung der Empathie auf der Spur. Doch genug geschwurbelt, den Fortschritt will ich nicht aufhalten.
Hier nur eine Strophe meines Gedichts:
In aller Unschuld,
wie Goethes Zauberlehrling
hantieren sie um tumber Anerkennung willen, Huld, Gewinn
mit Geistern die bislang gefangen
in Flaschen aus Vernunft- und nie dazu gedacht
in ahnungslos naive Freiheit zu gelangen, als unberechenbarer Dschinn
 
Und da sage ich ganz klar, der Mensch macht die Ideologie nicht die Maschine.
KI und Maschinen sind Ideologiefrei.
So wie die Luft und das Feuer auch.
Richtig, eigentlich ist KI auch ideologiefrei... aber sie kann wie Maschinen oder auch Luft und Feuer von Menschen ideologisch missbraucht werden, wie z.B. auch unsere (öffentlichen) Medien.
Wenn eine Maschine etwas falsch macht, ist die Ursache oft noch leicht ermittelbar; war es menschliche Absicht, kann dieser verantwortlich gemacht werden. Das wird bei KI aber schwieriger, weil ihre Hintergründe und Ursachen durch ihre Komplexität nicht mehr (ganz) durchschaut werden kann; Ideologie lässt sich also ggf. in ihr leichter verstecken.
Was die Singularität angeht @Burkart
Ich glaube sie ist längst eingetreten und die Auswirkungen kann man im Geist spüren.
Man lässt zb. KI1 und KI2 gegeneinander antreten.
Wenn eins von beiden beweisen kann, dass der andere ein Mensch ist, wäre das Experiment vobei.
Zu unserer Beruhigung: Es läuft (... noch).
KIs gegeneinander antreten zu lassen kann für uns ganz interessant und ggf. lehrreich sein.
Wenn du meinst, dass jetzt schon Singularität durch KI eingetreten ist, dann wundere dich nicht, wie sich KI in den nächsten Jahren/Jahrzehnten... noch entwickeln wird, dagegen ist sie heute noch "peanuts".
 
Empathie soll spezielle KI zwar auch entwickeln können, doch wie? Simulationen? Gefühle deutet sie so, wie die Mehrheit der schlechtbezahlten Algorithmenproduzierer anhand verschiedener Bilder von Menschen deutet. Nicht mehr. Schleicht sich dort ein Fehler ein, kann sich die KI noch so sehr entwickeln, er wird sich auswirken.
Ein Punkt wird sein, dass KI nicht nur initial mit Bewertungen von "schlechtbezahlten Algorithmenproduzierer" gefüttert wird, sondern dass sie ständig dazu lernen kann (und so auch schlechte Beispiele für sich revidieren bzw. als unglücklich erkennen kann), in dem sie Menschen weiter beobachtet und daraus weitergehende Schlüsse ziehen kann.
Wichtig dabei ist, dass sie mehr oder weniger versteht bzw. verstehen lernt, die menschlichen Gefühle und den Menschen am besten überhaupt zu interpretieren, was ein tiefergehendes K.-Intelligenz-Modell erfordert.
Wenn ich so lese, was Forscher toll finden, staune ich. Da haben sie einen Roboter gebaut, der das Verhalten eines anderen Roboters voraussagt und fühlen sich dem Ursprung der Empathie auf der Spur.
Na ja, das ist vielleicht doch ein etwas einfaches Vorgehen, aber sollte auch nicht schaden ;)
 
Ein Punkt wird sein, dass KI nicht nur initial mit Bewertungen von "schlechtbezahlten Algorithmenproduzierer" gefüttert wird, sondern dass sie ständig dazu lernen kann (und so auch schlechte Beispiele für sich revidieren bzw. als unglücklich erkennen kann), in dem sie Menschen weiter beobachtet und daraus weitergehende Schlüsse ziehen kann.
Ihr Optimismus gefällt mir irgendwie:

Aber eine echte Aussagefähigkeit besteht nun einmal immer aus einem "selbstkritischen Doppelpunkt", worin eine Maschine aber "keinen Grund" sehen wird, eine Entscheidung (ethisch nach innen und moralisch nach außen) in 'Frage oder - 'Gottlob in Frege' -zu stellen!?
Wichtig dabei ist, dass sie mehr oder weniger versteht bzw. verstehen lernt, die menschlichen Gefühle und den Menschen am besten überhaupt zu interpretieren, was ein tiefergehendes K.-Intelligenz-Modell erfordert.
Ich fürchte aber, ein tiefergehendes KI-Modell wird nicht klüger sein können als ein Mike Krüger, der versuchen würde einen gigantischen Nippel durch einen engen Flaschenhals zu ziehen, ohne den Nippel zu deformieren. Da wird auch 'Lesch oder Laschet' wohl nicht mehr viel weiterhelfen können- oder etwa doch!?.... ;)
Wenn ich so lese, was Forscher toll finden, staune ich. Da haben sie einen Roboter gebaut, der das Verhalten eines anderen Roboters voraussagt und fühlen sich dem Ursprung der Empathie auf der Spur. Doch genug geschwurbelt, den Fortschritt will ich nicht aufhalten.
" Das könnte wohl auch niemand wirklich schaffen,
es sei denn man würde den Fortschritt ermöglichen über Affen,
die spielerisch bedienen könnten sogar 'rückstoßlose lautenarme' Waffen."

Na ja, das ist vielleicht doch ein etwas einfaches Vorgehen, aber sollte auch nicht schaden ;)
Wenn die Menschheit ihren Untergang willentlich, gegen jede auch algorithmisch begründbare Vernunft herbeiführen will, muss sie vor sich selbst geschützt werden. Und sei es um den Verlust individueller Freiheit.
Lediglich um diesen Aspekt mache ich mir Sorgen.
Diese Sorgen sind berechtigt.

"Die Freunde schöner Götterfunken
sollte niemals in Verdacht geraten
erlogen zu sein oder gar erstunken
ohne zu riechen den möglichen Braten
durch unfehlbar fehlendes Unken. "

Bernies Sage (Bernhard Layer)
 
Zuletzt bearbeitet:
Immerhin gilt es auch aktuell das "löwenreißerische" Prinzip einer negativen Materie dahingehend zu verstehen und sofort zu begreifen,
das derjenige der den Schaden nicht hat, auch nicht für die Kosten der Schadenfreude aufkommen sollte und erspart sich somit das Keifen...


Bernies Sage (Bernhard Layer)
 
Zuletzt bearbeitet:
Werbung:
Ihr Optimismus gefällt mir irgendwie:

Aber eine echte Aussagefähigkeit besteht nun einmal immer aus einem "selbstkritischen Doppelpunkt", worin eine Maschine aber "keinen Grund" sehen wird, eine Entscheidung (ethisch nach innen und moralisch nach außen) in 'Frage oder - 'Gottlob in Frege' -zu stellen!?
Hm, was meinst du mit "selbstkritischen Doppelpunkt"?
Meine grundlegende Idee ist, dass eine allgemeine KI als (eine) Hauptgrundlage "für Mensch" haben sollte. Wenn sie also etwas für Mensch(en) Negatives feststellt, hat sich einen Grund dieses zu hinterfragen.
Ich fürchte aber, ein tiefergehendes KI-Modell wird nicht klüger sein können als ein Mike Krüger, der versuchen würde einen gigantischen Nippel durch einen engen Flaschenhals zu ziehen, ohne den Nippel zu deformieren. Da wird auch 'Lesch oder Laschet' wohl nicht mehr viel weiterhelfen können- oder etwa doch!?.... ;)
Warum sollte sie nicht klüger werden können? Sie muss halt (u.a.) lernen, was für Mensch gut ist (klar, dass das nicht immer eindeutig ist).
 
Zurück
Oben