• Willkommen im denk-Forum für Politik, Philosophie und Kunst!
    Hier findest Du alles zum aktuellen Politikgeschehen, Diskussionen über philosophische Fragen und Kunst
    Registriere Dich kostenlos, dann kannst du eigene Themen verfassen und siehst wesentlich weniger Werbung

Can We Believe IN Logic?

Hallo Chris M,

ich komme zwar von der rationalen Seite,
aber bei meiner Suche nach einer alternativen Logik
gab es auch intuitive/irrationale Momente.

(Einen daimonion wie Sokrates habe ich aber nicht.)

Und wie mein Beispiel mit der Letztbegründung zeigt,
stoßen immer tiefere Begründungen mit klassischer Logik auf ein Trilemma.

Mit der von mir gefundenen Alternative "Stufenlogik"
lässt sich zwar das Trilemma für allgemeine Aussagen auflösen,
die Regeln der Stufenlogik bleiben dabei aber (unbegründet) Voraussetzung.

Warum ich Stufen hinzugefügt habe und eine dreiwertige Logik
in meiner Stufenlogik benutze -
viel mehr, als "weil es so besser funktioniert"
kann ich dazu nicht sagen (Gruß an Bernies Sage (Bernhard Layer)),
oder eben - "das habe ich intuitiv gefunden".

Ein bischen mehr Nachvollziehbarkeit bei der Intuition
würde mir schon gefallen.
Außerdem ist wohl nicht zuletzt deshalb meine Stufenlogik nur schwer kommunizierbar.

Gruß
Trestone
 
Werbung:
Trestone: Es gibt auch rein theoretische Probleme, zu denen die klassische Logik führt:
So zeigt der Diagonalbeweis von Cantor, dass die reellen Zahlen nicht abzählbar sind,
es also "überabzählbar unendliche" Mengen gibt
und allgemein die Potenzmenge eine "höhere Unendlichkeit" als die zugehörige Menge hat,
es daher "unendlich viele Unendlichkeiten" gibt.
Das erscheint mir abstrus und hängt auch an Cantors Beweisen mit klassischer Logik.

Gruß
Trestone

Wenn Du Georg Cantor zitierst, dann aber auch richtig.

Der erste Diagonalbeweis zeigt zunächst nur, dass die rationalen Zahlen in einer anschaulichen Abbildung, einem zweidimensionalen Schema, so angeordnet werden können, dass sie in einer unendlichen Folge abgezählt werden können. Die rationalen Zahlen sind also, obwohl eine unendliche Menge, abzählbar (unendliche Zeit vorausgesetzt). Im zweiten Diagonalbeweis zeigte er, dass es für die reellen Zahlen (sie umfassen die natürlichen und die irrationalen Zahlen) keine solche Folge gibt, nicht geben kann. Die reellen Zahlen sind also überabzählbar.

Da auch die natürlichen Zahlen abzählbar sind - und man daher jeder natürlichen Zahl eine rationale Zahl zuordnen kann, sind die Mengen der natürlichen und der rationalen Zahlen gleich mächtig.
Die reellen Zahlen (R) aber - da überabzählbar - weisen eine höhere Mächtigkeit als die natürlichen Zahlen (N) auf.

Den verschiedenen Mächtigkeiten von N und R ordnete Cantor neue (hebräische) Symbole zu, die sog. Kardinalzahlen (K) Aleph(0) für N und Aleph(1) für R. Aus bestimmten Überlegungen heraus vermutete Cantor, dass

Aleph(1) = 2^Aleph(0)

- und das ist die sog. Kontinuumshypothese Georg Cantors. Sie beschreibt die Mächtigkeit des Kontinuums (= die reellen Zahlen), auf das sich platonische Mathematiker beziehen, die den Anspruch haben, die Wirklichkeit zu beschreiben.
Cantor argumentierte des Weiteren, dass es keine weitere, überabzählbare Menge geben kann, die kleiner ist als R. Es kann also keine Menge "zwischen" N und R geben.

Der Satz lässt sich weiter verallgemeinern, es könnte dann also Aleph(2) = 2^Aleph(1), Aleph(3) = 2^Aleph(2) .... geben, oder verallgemeinert:

K = Aleph(0), Aleph(1), Aleph(2), Aleph(3) ...

Georg Cantor konnte die Kontiuumshypothese nicht beweisen und auch nicht widerlegen (er verlor den Verstand dabei).
Georg Gödel bewies 1938, dass sich die Kontiuumshypothese mit unserer Mathematik nicht widerlegen lässt. Paul Cohen bewies 1960, dass die Kontinuumshypothese mit unserer Mathematik nicht beweisen lässt.

Die Kontinuumshypothese - die "unendlichen vielen Unendlichkeiten" - lässt sich also weder beweisen noch widerlegen, sie ist unentscheidbar.

Die ganze Diskussion galt zu Georg Cantors Lebzeiten und noch lange danach als rein akademisch, eine Kopfgeburt. Der Mathematiker Leopold Kronecker, Zeitgenosse Cantors und sein intellektueller Gegner, der gleichwohl selbst grundlegende Beiträge zur Analysis und Zahlentheorie lieferte, soll dazu gesagt haben:

„Die ganzen Zahlen hat der liebe Gott gemacht, alles andere ist Menschenwerk.“
Nach David Hilbert hat Kronecker die Zahlentheoretiker mit den Lotophagen verglichen, „die, wenn sie einmal von dieser Kost etwas zu sich genommen haben, nie mehr davon lassen können“

Allerdings haben Georg Cantors Arbeiten in den letzten Jahrzehnten auch eine reale Bedeutung gewonnen. Die aus ihnen gewonnenen Aussagen haben nämlich eine konkrete Bedeutung für die Kryptographie - die Ver- und Entschlüsselung von Daten, in digitalen Zeiten ein ganz wichtiges Thema, das damals auch nur eine Randerscheinung war.
 
Hallo Giacomo_S,

danke, Deine Ausführungen sind genauer und helfen vielleicht, die "Überabzählbarkeit" besser zu verstehen.

Trotz großen Respektes vor Cantor ist sie für mich nicht nur eine "Kopfgeburt"
(war Pallas Athena nicht auch eine (ziemlich großartige)?),
sondern v.a. eine Folge der klassischen Logik.
Z.B. mit meiner Stufenlogik kommt man mit nur einer Art von Unendlich aus (der der natürlichen Zahlen).
Es gibt hier die Menge aller Mengen, die gleich ihrer Potenzmenge ist.

Die verwendete Logik hat also auch Einfluss auf die Ergebnisse der Mengenlehre.
und wenn die so seltsam wie die Überabzählbarkeiten sind,
könnte das doch ein Anlass sein, sich nach Alternativen umzusehen ...

Gruß
Trestone
 
Hallo Giacomo_S,

danke, Deine Ausführungen sind genauer und helfen vielleicht, die "Überabzählbarkeit" besser zu verstehen.

Trotz großen Respektes vor Cantor ist sie für mich nicht nur eine "Kopfgeburt"
(war Pallas Athena nicht auch eine (ziemlich großartige)?),
sondern v.a. eine Folge der klassischen Logik.

Das Cantors Zahlentheorie eine "Kopfgeburt", ja sogar ein "Hirnfurz" ist, das haben ihm nicht nur seine Zeitgenossen vorgeworfen, sondern auch noch lange nach seinem Tod.

Es gibt aber wichtige Anknüpfungen der Zahlentheorie an die Kryptografie. Zu Cantors Zeiten war die Kryptografie auch bestenfalls nur ein Randgebiet, Stoff für E.A. Poe - Geschichten (Der Goldkäfer) und andere Räuberpistolen.
In den 1940er Jahren änderte sich das aber dramatisch. Die deutsche Wehrmacht verwendete die Enigma als Verschlüsselungsmaschine, und die Entschlüsselung des Codes durch die Briten war (kriegs-)entscheidend. Der britische Geheimdienst und der englische Mathematiker Alan Turing knackten den Code der Enigma schließlich - mit Heerscharen fließig mit Bleistift und Papier rechnender Damen und waren Monstren von Rechenmaschinen.

Heutzutage ist die Kryptografie ein wichtiger, wenn nicht der Teil unseren digitalen Lebens: Verschlüsselung von Daten, Passwörter, Dechiffrierung, Kriminalität und deren Abwehr, Blockchain uvm.

Die Kryptografie beruht bis heute auf dem Produkt zweier großer Primzahlen. Die Sicherheit der Kryptografie ist ausschließlich gewährleistet durch zwei Grundsätze:

1. Es ist sehr einfach und schnell, praktisch beliebig große Primzahlen zu erzeugen und miteinander zu multiplizieren. Selbst ein normaler PC kann innerhalb von Sekunden zwei Primzahlen mit 500 Stellen generieren und sie miteinander zu multiplizieren.
2. Es ist sehr schwierig und langsam, eine lange Zahl in ihre unbekannten Primzahlfaktoren wieder zu zerlegen. Aktuell ist dies technisch vllt. bis für Produkte von 220 Stellen möglich (legt mich hier jetzt nicht auf ein Dutzend mehr oder weniger Stellen fest, es ändert am Prinzip nichts), danach nicht mehr. Im unter 1. genannten Beispiel ist es derzeit unmöglich eine Primzahlenfaktorisierung mit einer Zahl von z.B. 1.000 Stellen durchzuführen (und falls doch, dann generiert man halt Produkte mit nur 1.100 Stellen). In den USA sind Verschlüsselungsprogramme mit Schlüsseln ab einer gewissen Länge verboten, ihre Herstellung und auch die Verwendung ist eine Straftat, die mit langen Haftstrafen verfolgt wird.

Alle Algorithmen zur Primzahlenfaktorisierung beruhen letztlich auf dem Verfahren des französischen Mathematikers Pierre de Fermat aus dem Jahr 1634. Ein anderes (besseres) Verfahren zur Primzahlenfaktorisierung ist bis heute nicht bekannt.
Der Algorithmus gilt als in jedem Fall als NP (1), möglicherweise aber auch als NP-vollständig (2), genau ist das aber nicht bekannt.

Niemand kann derzeit sagen, ob es einen effizienten Algorithmus zur Primzahlenfaktorisierung schlicht nicht gibt, oder ob ihn nur noch niemand gefunden hat. Fände jemand einen effizienten Algorithmus, dann wäre das das Ende jeder Kryptographie und Verschlüsselung. (3)
Möglicherweise ist die Zahlentheorie der Schlüssel dazu - und zu einer ganzen Reihe noch anderer, seit der Antike ungelöster mathematischer Fragen. In gewisser Weise gerät sie dadurch in den Fokus von Sicherheitsbehörden, Geheimdiensten und dem Militär.


Es gibt hier die Menge aller Mengen, die gleich ihrer Potenzmenge ist.

Nach der klassischen Logik kann es die Menge aller Mengen nicht geben. Denn sie enthielte auch die leere Menge sowie sich selbst.

Der Mathematiker und Zahlentheoretiker Bertrand Russell veranschaulichte dies mit dem Beispiel

Des Barbiers, der (ausschließlich) alle Männer seines Dorfes rasiert, die sich nicht selbst rasieren.

Nun hat der Barbier auch einen Bartwuchs, deshalb muss er sich rasieren. Dies darf er aber nicht tun, da er damit zu der Gruppe der Männer gehört, die sich selbst rasieren. Man kann mengentheoretisch mit der Aufgabe herum rechnen, um dann festzustellen, dass es diesen Barbier nicht gibt. Er entspricht dann der leeren Menge.


Anmerkungen:

(1) NP = Nicht deterministisch polynominal.
Nicht deterministisch: Der Algorithmus hat Vergleiche und Verzweigungen, d.h. dessen Rechendauer ist für eine beliebige Zahl nicht vorhersagbar.
Polynominal: In polynominal zunehmender Zeit lösbar.
NP-Algorithmen gelten als effizient, d.h. grundsätzlich als in annehmbarer Zeit lösbar.

(2) NP-vollständig
Nicht deterministisch, aber nicht mehr in polynominaler Zeit lösbar. NP-vollständige Algorithmen gelten als nicht effizient, sie lassen sich nicht mehr in annehmbarer Zeit lösen. Man vermutet, dass sie sich mit Quantencomputern effizient lösen lassen, genau weiß das aber noch keiner. Außerdem gibt es praktisch noch keine Quantencomputer und erst recht keine, die über die dafür notwendigen Registergrößen verfügen würden.

(3) Ich möchte mal annehmen: Wenn jemand einen solchen Algorithmus findet, und mit der CIA Kontakt aufnimmt, um diesen zu verkaufen: Dann lebt er nach dem erfolgreichen Verkauf nicht mehr lange.
 
Zuletzt bearbeitet:
Hallo Giacomo_S,

mit einer neuen Logik ist vieles anders,
z.B. gibt es mit der Stufenlogik widerspruchsfrei die Menge aller Mengen.

Was vielleicht auch verblüffen könnte:

Verschlüsselt man Nachrichten mit großen Primzahlen,
so könnte Tage später das Entschlüsseln scheitern (trotz bekannten Schlüssels):

Das könnte so sein, wenn in unserer Welt die Stufenlogik statt der klassischen Logik gilt.

Wenn sich mit Wechselwirkungen jeweils auch die Stufe erhöht wären auch Computer betroffen.
Beim Verschlüsseln läge eine andere Stufe als beim Entschlüsseln vor.
Nun gilt aber mit der Stufenlogik die Eindeutigkeit der Primzahlzerlegung nicht mehr,
d.h. diese kann sich mit den Stufen ändern.

Das gilt aber wohl aber erst ab astronomisch großen Zahlen,
die wir in der Praxis noch nicht erreicht haben - könnte aber morgen schon passieren.

Gruß
Trestone
 
Wir sehen also, dass die Logik auch bei schwierigen Problemen eingesetzt wird
und die meisten akzeptieren die Ergebnisse, auch wenn sie Unmöglichkeiten zeigen

Ich würde argumentieren, dass die menschliche Logik aus einer rationalen und einer emotionalen Komponente besteht.
Für emotionale Logik habe ich folgendes Beispiel:
Ich habe mir mal einen Kompass gekauft, im Wissen, dass er immer nach Norden zeigen wird und war danach verwundert, warum er nicht genau dort hinzeigt, wo ich hin will, wie der vom Captain Jack Sparrow.
Nachdem diese Logik versagt hat, habe ich meine Herangehensweise hinterfragt und beobachtet, wahnsinn bin ich blöd, ein Kompass zeigt natürlich nach Norden.
Was mich zur Theorie führt, dass ich eine Logik genau dann anzweifle, wenn sie versagt und wenn etwas zumindest meistens zutrifft, ist es auch vernünftig sie mit der Option A für wahr zu versehen, weil die einzige Alternative Option B für falsch weiter von meinen Messwerten entfernt liegt.
Ich sehe es so, dass die emotionale Komponente entscheidet, was der Ausgangspunkt sein soll: in meinem Beispiel der wichtige Kompass von Mr Sparrow, weil die anderen Kompasse hatten ja nie eine Bedeutung die ich gekannt habe, wann dieser infrage gestellt werden soll (beim zu erwartenden Versagen) und wann ein Schlusspunkt gesetzt werden soll, weil im Moment ohnehin keine Informationen, oder andere Herangehensweisen bekannt sind, mit denen es sich verbessern lassen würde.
Und die rationale Komponente wird dafür herangezogen den unbefriedigenden Zustand eines vermeidbaren Fehlers zu beseitigen und das System über analytisches Vorgehen zu verbessern.

LG Hiha
 
Hallo Giacomo_S,Das könnte so sein, wenn in unserer Welt die Stufenlogik statt der klassischen Logik gilt.

Eine Logik, die für die Verknüpfung von zwei Aussagen 3^9 = 19.683 mögliche Verknüpfungen hat ... kann niemand mehr bewältigen. Auch mit digitaler Unterstützung nicht mehr, denn bereits bei der Verbindung von nur zwei Verknüpfungen landet man bereits bei mehr als 387 Millionen Kombinationen.

Nun gilt aber mit der Stufenlogik die Eindeutigkeit der Primzahlzerlegung nicht mehr,
d.h. diese kann sich mit den Stufen ändern.

Wenn eine Logik keine Eindeutigkeit garantieren kann, dann ist sie wertlos, ja sinnlos.
Du bemängelst eine fehlende Eindeutigkeit der klassischen Logik - aber selbst wenn man dies annehmen würde, und die Zahlentheoretiker dürften dies entschieden verneinen - dann ist sie es nur in den absoluten Randgebieten: In der reinen Theorie, den "Kopfgeburten", wie Du sie nennst.
Die Stufenlogik ist aber bereits im Ansatz nicht eindeutig. Wie sollte man sie dann bezeichnen, wenn nicht als reine Kopfgeburt?
 
Was mich zur Theorie führt, dass ich eine Logik genau dann anzweifle, wenn sie versagt und wenn etwas zumindest meistens zutrifft, ist es auch vernünftig sie mit der Option A für wahr zu versehen, weil die einzige Alternative Option B für falsch weiter von meinen Messwerten entfernt liegt.
Ich sehe es so, dass die emotionale Komponente entscheidet, was der Ausgangspunkt sein soll: in meinem Beispiel der wichtige Kompass von Mr Sparrow, weil die anderen Kompasse hatten ja nie eine Bedeutung die ich gekannt habe, wann dieser infrage gestellt werden soll (beim zu erwartenden Versagen) und wann ein Schlusspunkt gesetzt werden soll, weil im Moment ohnehin keine Informationen, oder andere Herangehensweisen bekannt sind, mit denen es sich verbessern lassen würde.
Und die rationale Komponente wird dafür herangezogen den unbefriedigenden Zustand eines vermeidbaren Fehlers zu beseitigen und das System über analytisches Vorgehen zu verbessern.

LG Hiha

Hallo Hiha,

wie können wir im Umfeld der klassischen Logik Zugang zu der "emotionalen Komponente" finden?

Gruß
Trestone
 
Hallo Giacomo_S,

welche Logik oder Regeln in unserer Welt gelten
ist z.T. wohl unabhängig von uns
(der Mensch hat sich doch vom Mittelpunkt verabschiedet?).

Klar gefallen uns manche Systeme und Regeln besser (v.a. einfache/schöne),
aber letztlich müssen wir wohl untersuchen und hinnehmen, was wir finden.

Und das muss nicht immer das sein, was wir gewohnt sind oder was wir erwarten ...

Gruß
Trestone
 
Werbung:
wie können wir im Umfeld der klassischen Logik Zugang zu der "emotionalen Komponente" finden?

Ich würde argumentieren, dass Menschen nicht dazu in der Lage sind sich zu 100% in ein Denksystem hineinzuversetzen, weil wir Lebewesen und keine Roboter sind.
Um gute Reslutate zu erzielen, helfen wir uns damit, dass wir etwas verstehen.
Stellt sich nur die Frage, was Verständnis überhaupt ist.
Ich habe sie so Beantwortet: Verständnis ist eine Emotionale Ordnung.
Und ja das bedeutet, dass ich auch eine Rechenaufgabe zuerst mit emotionaler Logik angehe, indem ich sie mit einem Musterbeispiel, welches die größte Emotionale bedeutung hat, vergleiche.
Mein Beispiel der emotionalen Logik soll außerdem nicht zu einer Annäherung an die Realität führen, sondern als Erklärungsmodell dienen, um zu verstehen, warum es vielen eben doch egal ist, wenn ein System nicht zu 100% stimmt.
Viele machen sich die Welt nicht so wie sie ihnen gefällt, sondern argumentieren, dass sie etwas als anwendbar akzeptieren, wenn es zu 80 Prozent stimmt. Und für alles was aus dem Muster fällt verwendet man eben ein anderes Konzept.
Tatsächlich sehe ich es so, dass ein System umso komplizierter wird, je präziser es die Wirklichkeit darstellt und ein System, welches zu 100% stimmt, mit dem aber leider keiner etwas anfangen kann, ist in 100% der Fälle nutzlos.

LG Hiha
 
Zurück
Oben