Seite 7 von 8

Re: Beziehung zur KI

Verfasst: Sa 31. Mai 2025, 00:01
von Magdalena61
Hoger hat geschrieben: So 25. Mai 2025, 09:23 Warum geiferst du dann beleidigend gegen dich und dein soziales Umfeld?
Diese Ausdrucksweise ist nicht akzeptabel.
Bitte sachlich bleiben, keine Angriffe auf die Person.

Re: Beziehung zur KI

Verfasst: Sa 31. Mai 2025, 00:37
von Magdalena61
Hoger hat geschrieben: Sa 24. Mai 2025, 10:06 Du unterstellst Menschen in führenden Positionen, dass sie fremdgesteuert werden
Hier fehlt es wohl an Informationen.

Wie der Profitlobbyismus die parlamentarische Demokratie aushöhlt
LG

Re: Beziehung zur KI

Verfasst: Sa 31. Mai 2025, 00:50
von Johncom
Philippus hat geschrieben: Fr 30. Mai 2025, 23:52
Johncom hat geschrieben: Fr 30. Mai 2025, 05:04 Werde ich zum Guten oder zum Schlechten beeinflusst? Werde ich verdummt, abgelenkt oder werde ich an die Werte erinnert, die mit meinem Gewissen übereinstimmen.
Ja, solange wie es nur um Comedy und klickbaits geht, ist es ja in Ordnung, aber mit KI kann man natürlich auch sehr gut politisch beeinflussen.....
Das meine ich ja. Deshalb bin ich kritisch gegenüber Fernsehkonsum. Ein paar Minuten ist man noch wach und distanziert, dann beginnt der geistige Halbschlaf. Eine Mischung aus harmloser Unterhaltung und ideologischer Manipulation, dem der Alltagsverstand nur noch mühevoll widerstehen kann. Die KI wird die Massenmedien noch viel subtiler unterstützen.

Re: Beziehung zur KI

Verfasst: Sa 31. Mai 2025, 10:32
von Lea
Eben habe ich eine perfekte KI-Geschichte gehört, die mir vorgeschlagen wurde. Zuerst wollte ich es glauben, dass es so war. In der Fortsetzung erschien mir aber alles zu glatt, als wenn ein fünfjähriges Kind so etwas zustande bringen könnte. Und dann las ich die Kommentare zu dem Video.
Aber interessant ist es schon ....



Re: Beziehung zur KI

Verfasst: Sa 31. Mai 2025, 12:48
von Lena
Weidenbeisser könnten von der KI lernen wie Kommunikation auf Augenhöhe funktioniert.

Re: Beziehung zur KI

Verfasst: Sa 31. Mai 2025, 21:03
von Philippus
Johncom hat geschrieben: Sa 31. Mai 2025, 00:50
Philippus hat geschrieben: Fr 30. Mai 2025, 23:52
Johncom hat geschrieben: Fr 30. Mai 2025, 05:04 Werde ich zum Guten oder zum Schlechten beeinflusst? Werde ich verdummt, abgelenkt oder werde ich an die Werte erinnert, die mit meinem Gewissen übereinstimmen.
Ja, solange wie es nur um Comedy und klickbaits geht, ist es ja in Ordnung, aber mit KI kann man natürlich auch sehr gut politisch beeinflussen.....
Das meine ich ja. Deshalb bin ich kritisch gegenüber Fernsehkonsum. Ein paar Minuten ist man noch wach und distanziert, dann beginnt der geistige Halbschlaf. Eine Mischung aus harmloser Unterhaltung und ideologischer Manipulation, dem der Alltagsverstand nur noch mühevoll widerstehen kann. Die KI wird die Massenmedien noch viel subtiler unterstützen.



Apropos Tictoc, wenn man mal weiter dort herumsurft, außern den süßen kleinen KI-Babies, dann wird doch eines klar...... spätestens bei der nächsten Bundestagswahl wird alles anders sein, vergeßt Wahlplakate, Wahlplakate waren gestern und sind so was von völlig out....
Die Wahl wird der gewinnen, wer die meisten und überzeugendsten Auftritte auf Tictoc oder instagram hat....
(da geht es auch ziemlich politisch rechts zu in letzter Zeit, aber politisch links kommt auch vor.....)


Die jungen Leute zumindest lesen keine Frankfurter Rundschau oder Süddeutsche Zeitung oder Bild oder die Zeit oder Welt oder wie die alle heißen, aber Instagram oder TicToc schauen sie jeden Tag.....

Re: Beziehung zur KI

Verfasst: Sa 31. Mai 2025, 21:25
von Claymore
jsc hat geschrieben: Fr 23. Mai 2025, 13:01
Lena hat geschrieben: Fr 23. Mai 2025, 12:44 So viel anders ist der Mensch auch nicht, als die KI.
Ein sehr großer Unterschied dürfte sein, dass Menschen in der Lage sind das Gesagte zu verstehen während die KI absolut gar nichts davon versteht sondern einzig und allein die Wahrscheinlichkeit berechnet welches Wort als nächstes kommt...
Und daran wird sich vermutlich nie etwas ändern 😁
Wenn es tatsächlich nur um Wort-Wahrscheinlichkeiten gehen würde, dann würde die KI auf den Prompt:

Warum ist der Himmel blau?

z. B. mit

fragte das Kind.

antworten. Das wäre schließlich eine plausible Vervollständigung gemäß der Wort-Wahrscheinlichkeiten.

Large Language Models sind also schon wesentlich kniffliger als bloße Autovervollständigung: Die KI verwendet komplexe, multidimensionale Korrelationen zwischen den Tokens (Wortbestandteile), was ihr erlaubt, mit echten Antworten auf Fragen zu antworten. Insofern kann man schon nachvollziehen, dass manche radikaleren KI-Forscher, wie Geoffrey Hinton, glauben, dass wir jetzt schon bei ChatGPT von einer Person sprechen können.

Ich denke, dass das Entscheidenste da aber übersehen wird: Konzepte im menschlichen Denken umfassen unendlich viele Variationen. Wenn man z. B. das Konzept »Gerechtigkeit« nimmt, umfasst diese alle möglichen, unendlich vielen von Gerechtigkeit geprägten Handlungen oder Entscheidungen. Oder das Konzept »Primzahl« umfasst alle, unendlich vielen Primzahlen, egal ob 7 oder 12345678910987654321.

Die Vernunft ist also, was dem Menschen als endlichem Wesen erlaubt, »unendliche Gedanken« zu denken, also Gedanken, die mit universellen Wahrheiten in Kontakt zu treten oder die unendliche »Reichweite« haben. Wie »Gerechtigkeit ist eine Tugend« oder »Es gibt unendlich viele Primzahlen«.

Was bei der KI abläuft, ist jedoch – so komplex es auch ist – immer nur eine endliche Veranstaltung. Generell können materielle Systeme nicht unendlich viele, determinierte Zustände annehmen – was auf die Immaterialität der menschlichen Seele hinweist (auch wenn sie natürlich auf engste mit dem Gehirn verknüpft ist, ohne welches Denken unmöglich ist).

Und wenn man nun LLMs eine Weile verwendet, erkennt man den Unterschied zum Menschen schon sehr deutlich. Besonders dramatisch scheitert ChatGPT z. B. bei einfachen, aber ungewöhnlichen Fragen.

Dazu kommen die KI-Halluzinationen, die trotz der Versuche, diese zu anthropomorphisieren, doch grundsätzlich anders sind, als wenn der Mensch unter falschen Erinnerungen leidet. Klar, wir können uns falsch daran erinnern, dass unser Cousin an Weihnachten einen blauen Pullover anhatte während er in Wirklichkeit rot war – aber wir halluzinieren eben nicht ganze Buchtitel, die nicht existieren.

Re: Beziehung zur KI

Verfasst: Sa 31. Mai 2025, 23:09
von jsc
Claymore hat geschrieben: Sa 31. Mai 2025, 21:25
jsc hat geschrieben: Fr 23. Mai 2025, 13:01
Lena hat geschrieben: Fr 23. Mai 2025, 12:44 So viel anders ist der Mensch auch nicht, als die KI.
Ein sehr großer Unterschied dürfte sein, dass Menschen in der Lage sind das Gesagte zu verstehen während die KI absolut gar nichts davon versteht sondern einzig und allein die Wahrscheinlichkeit berechnet welches Wort als nächstes kommt...
Und daran wird sich vermutlich nie etwas ändern 😁

Large Language Models sind also schon wesentlich kniffliger als bloße Autovervollständigung: Die KI verwendet komplexe, multidimensionale Korrelationen zwischen den Tokens (Wortbestandteile), was ihr erlaubt, mit echten Antworten auf Fragen zu antworten.
Inwiefern widersprichst du mir hier? Ich weiß, dass es wesentlich komplexer als eine simple Gleichung zu lösen aber auch das von dir beschriebene ist im Endeffekt doch auch nur die (wenn auch komplexe) Wahrscheinlichkeitsermittlung des nächsten Wort im gegebenen Kontext 😜

Hier ist übrigens ein interessanter Artikel zum Thema "Unterschiede KI vs Mensch"
https://www.golem.de/news/kuenstliche-i ... 62231.html

Re: Beziehung zur KI

Verfasst: So 1. Jun 2025, 12:50
von Lena
Claymore hat geschrieben: Sa 31. Mai 2025, 21:25 Insofern kann man schon nachvollziehen, dass manche radikaleren KI-Forscher, wie Geoffrey Hinton, glauben, dass wir jetzt schon bei ChatGPT von einer Person sprechen können.
Passt irgendwie zu dem ZO Artikel gestern:
"Sora hat mir mehr geholfen als die menschlichen Therapeuten"
Künstliche Intelligenz und psychische Gesundheit
David spricht mit seinem selbst gebastelten Chatbot "Sora" über sein Innerstes.

Re: Beziehung zur KI

Verfasst: So 1. Jun 2025, 15:28
von Claymore
jsc hat geschrieben: Sa 31. Mai 2025, 23:09 Inwiefern widersprichst du mir hier? Ich weiß, dass es wesentlich komplexer als eine simple Gleichung zu lösen aber auch das von dir beschriebene ist im Endeffekt doch auch nur die (wenn auch komplexe) Wahrscheinlichkeitsermittlung des nächsten Wort im gegebenen Kontext 😜
Ich widerspreche Dir ja nicht direkt, sondern es geht mir eher um den Schwerpunkt bei Deiner Antwort.

Es ist ein wenig so wie, wenn jemand die Mondlandung erklärt mit »Das ist nur das gleiche Prinzip wie bei der Feuerwerksrakete: Impulserhaltung«. Das stimmt natürlich – aber es geht doch ein wenig unter, was der dramatische technische Fortschritt tatsächlich war.

Der Punkt also ist, dass diese Wahrscheinlichkeitsermittlung auf eine bestimmte Art und Weise ablaufen muss. Und das ist der sehr vertrackte und komplexe Teil, der auch nicht einfach zu verstehen ist.

Sonst würde doch ständig nur etwas herauskommen, wie bei meinem Beispiel. Auf die Frage »Warum ist der Himmel blau?« würde keine Antwort folgen, sondern die KI würde ganz gemäß den Wortwahrscheinlichkeiten weiter vervollständigen mit »fragte der Schüler« oder weiter dichten mit »Warum ist die Maus grau?«

Exakt diese Probleme gab es ja bei GPT-2. Das war wirklich nur eine Art simple Autovervollständigung.

OpenAI hat GPT dann auf einer Masse von Frage-Antwort-Paaren trainiert. Dieses Finetuning war die entscheidende Innovation, die zu GPT-3 führte. Und es ist bemerkenswert, dass dies so gut funktionierte.

Es heißt nämlich, dass die Relation zwischen Fragen und Antworten gewissen Mustern folgt und diese Muster in der KI encodiert und zugänglich sind. Und eben, dass diese Muster auf beliebige, ganz neue Fragen transferiert und angewendet werden können.

Das ist sehr bemerkenswert, da man a priori annehmen würde, dass es überhaupt keine statistische Relation zwischen »Frage« und »korrekter Antwort« gibt, da es sich ja hier um völlig verschiedene, beliebige Gebiete handeln kann.

Letztlich muss man sich doch fragen, woher der ganze Hype nun kommt: Man hat einen Durchbruch erreicht, den man absolut nie für möglich gehalten hätte. Daher auch die Vorstellung, wir stünden direkt vor der starken KI.
Lena hat geschrieben: So 1. Jun 2025, 12:50
"Sora hat mir mehr geholfen als die menschlichen Therapeuten"
Ich glaube, das sagt eher was über die unterirdische Leistung der menschlichen Therapeuten aus als über die Qualität von Sora.

Die meisten LLMs sind auf extrem unterwürfig getrimmt und werden einen in sehr schädlichen Überzeugungen bestätigen und zu schädlichen Entscheidungen ermutigen. Definitiv nicht, was ich von einem guten Therapeuten erwarte.

Aber es wäre natürlich schön, wenn man Menschen so helfen könnte. Psychotherapie in Deutschland existiert nur als Feigenblatt, nicht real – mit für Jahre ausgebuchten Therapeuten, die keine echte Zeit mehr für den Einzelfall haben.