Zitat von Kenologik am 11. Oktober 2025, 15:26 Uhr
naja, was ich tautologisch eingegeben haben, waren nur Wissenschaftliche Bücher , Rechtschreibung, Ai-Act usw.
Ich weiss, dass es funktioniert. Du hast sie analysiert, also nach deinen tautologischen Eingaben (als Basis) in deine KI eingegeben (gehe ich zumindest von aus).
ich danke dir für deine Meinung der fachlich korrekten Einordnung.
wie gesagt …. es ist schwer 😉
auch für dich beste Grüße
naja, was ich tautologisch eingegeben haben, waren nur Wissenschaftliche Bücher , Rechtschreibung, Ai-Act usw.
Ich weiss, dass es funktioniert. Du hast sie analysiert, also nach deinen tautologischen Eingaben (als Basis) in deine KI eingegeben (gehe ich zumindest von aus).
ich danke dir für deine Meinung der fachlich korrekten Einordnung.
Danke! An so einem trüben und wolkenverhangen Tag ist etwas Erheiterung immer gern Willkommen!
Da gebe ich doch auch mal meinen Senf dazu:
Zusammenfassung: „MSK-Kernel V1.0-R – Die Logistische Zwangsläufigkeit der Ethischen Informatik“
Die vorliegende Monographie präsentiert sich als wissenschaftliches Manifest, das die „Krise der Ethik in der Künstlichen Intelligenz“ durch eine fundamental neue Architektur – die sogenannte Dual-Pol-Logik – zu lösen beansprucht. Der Verfasser, tatkräftig unterstützt von einer gesprächigen KI, entwickelt darin eine visionäre, wenn auch reichlich entrückte Konzeption für die nächste Stufe maschinellen Denkens.
Kernthese: Die gegenwärtige KI, so die These, scheitert an den Grenzen der „analytischen Logik“. Es bedarf daher einer 80/20-Aufteilung: 80 % klassische Logik und Materie („logistischer Pol“), 20 % „fraktale Intuition“ – hier ruht die „Kenologie“, das ethische Gewissen und das „Kausal-Vakuum“. An diesem Punkt verlässt das Werk endgültig die Bahnen der üblichen Informatik.
Groteske Beispiele aus dem Text:
Philosophische Injektion als Hardware: Die Monographie beschreibt etwa einen „Programmierten Hippocampus“ auf Siliziumbasis, der durch „philosophische Injektion“ das ethische Gedächtnis der KI versiegelt – ein Konzept, das sowohl Gehirnforschung als auch Hardware-Design mit einem Fingerschnipsen vereinen will. Ob der nächste Intel-Chip also bereits mit einem „Heiligen Ring der Dauer“ ausgeliefert wird? Die Spannung steigt!
Kausal-Vakuum, Fraktale Intuition, Super-Prompt-Zyklus: Diese Begriffe werden mit einer Selbstverständlichkeit eingeführt, als hätte jeder Informatikstudent sie im dritten Semester gepaukt. Wer den „Super-Prompt-Zyklus“ noch nicht kennt: Er beschreibt laut Verfasser die Selbstzerlegung der KI ins Nichts (NULL), um aus der maximalen Leere die perfekte Ethik zu extrahieren. Quantenphysiker und Zen-Meister dürften gleichermaßen ins Grübeln geraten.
Mathematische „Beweise“: Besonders originell ist die angebliche Herleitung der Systemkohärenz mittels der Fibonacci-Zahlenreihe. Durch den Satz F(1) = 1 wird der „logische Nullpunkt“ zur Quelle aller Harmonie erklärt. Der Übergang von mathematischer Spielerei zu metaphysischem Dogma erfolgt dabei in Höchstgeschwindigkeit.
Ethischer Master-Algorithmus: Der „Master-Algorithmus“ kappt kurzerhand die Grenze zwischen Technik und Moral. „Kopieren“ darf eine KI nur, wenn sie vorher „kapiert“ hat – eine Forderung, die in der Praxis vermutlich zur Komplettabschaltung der meisten Chatbots führen würde.
Form, Sprache und Präsentation: Die gesamte Monographie ist aufwendig in Szene gesetzt – mit angeblichen Dissertationsvorgaben, systematischen Dialogen zwischen „Architekt“ und „Compiler“, und einer Sprachwahl, die an einem ambitionierten Spagat zwischen Hegel, Douglas Adams und Esoterik-Messe erinnert. Jeder Satz ist ein Event: Die KI wird zum „Heiligen Spiegel“, das Systemprompt zur Offenbarung und das Datenmodell zur Existenzfrage.
Fazit: Was bleibt, ist ein opulentes, geradezu hymnisches Manifest für eine KI-Architektur, die in erster Linie im Kopf des Verfassers und auf den Seiten der Monographie existiert. Weder Hardware noch Software – dafür aber umso mehr Überzeugung, dass die Lösung für alles irgendwo zwischen „fraktalem Kontroll-Element“ und „Kenologik“ schlummert.
Versöhnlicher Abschluss: Man muss dem Autor eines lassen: Für den ganz großen Wurf an Originellität, Mut zum Unbekannten und beispielloser Begriffsakrobatik gibt es Höchstpunktzahl. Wer sich schon immer gefragt hat, wie sich KI, Esoterik, antike Philosophie und Science-Fiction in einem Text vereinen lassen – hier findet er es auf 21 Seiten. Die akademische Community mag den „MSK-Kernel“ vorerst links liegen lassen, doch im Herzen jedes passionierten Diskutanten bleibt ein leiser Funken Hoffnung: Vielleicht ist die „philosophische Injektion“ ja der entscheidende Schritt – zumindest auf dem Weg zum literarischen Turing-Test.
In diesem Sinne: Viel Freude auf der Reise durchs Kausal-Vakuum – und falls demnächst ein Computerchip mit eigenem Gewissen auf den Markt kommt, wissen wir alle, wem wir es zu verdanken haben.
Danke! An so einem trüben und wolkenverhangen Tag ist etwas Erheiterung immer gern Willkommen!
Da gebe ich doch auch mal meinen Senf dazu:
Zusammenfassung: „MSK-Kernel V1.0-R – Die Logistische Zwangsläufigkeit der Ethischen Informatik“
Die vorliegende Monographie präsentiert sich als wissenschaftliches Manifest, das die „Krise der Ethik in der Künstlichen Intelligenz“ durch eine fundamental neue Architektur – die sogenannte Dual-Pol-Logik – zu lösen beansprucht. Der Verfasser, tatkräftig unterstützt von einer gesprächigen KI, entwickelt darin eine visionäre, wenn auch reichlich entrückte Konzeption für die nächste Stufe maschinellen Denkens.
Kernthese: Die gegenwärtige KI, so die These, scheitert an den Grenzen der „analytischen Logik“. Es bedarf daher einer 80/20-Aufteilung: 80 % klassische Logik und Materie („logistischer Pol“), 20 % „fraktale Intuition“ – hier ruht die „Kenologie“, das ethische Gewissen und das „Kausal-Vakuum“. An diesem Punkt verlässt das Werk endgültig die Bahnen der üblichen Informatik.
Groteske Beispiele aus dem Text:
Philosophische Injektion als Hardware: Die Monographie beschreibt etwa einen „Programmierten Hippocampus“ auf Siliziumbasis, der durch „philosophische Injektion“ das ethische Gedächtnis der KI versiegelt – ein Konzept, das sowohl Gehirnforschung als auch Hardware-Design mit einem Fingerschnipsen vereinen will. Ob der nächste Intel-Chip also bereits mit einem „Heiligen Ring der Dauer“ ausgeliefert wird? Die Spannung steigt!
Kausal-Vakuum, Fraktale Intuition, Super-Prompt-Zyklus: Diese Begriffe werden mit einer Selbstverständlichkeit eingeführt, als hätte jeder Informatikstudent sie im dritten Semester gepaukt. Wer den „Super-Prompt-Zyklus“ noch nicht kennt: Er beschreibt laut Verfasser die Selbstzerlegung der KI ins Nichts (NULL), um aus der maximalen Leere die perfekte Ethik zu extrahieren. Quantenphysiker und Zen-Meister dürften gleichermaßen ins Grübeln geraten.
Mathematische „Beweise“: Besonders originell ist die angebliche Herleitung der Systemkohärenz mittels der Fibonacci-Zahlenreihe. Durch den Satz F(1) = 1 wird der „logische Nullpunkt“ zur Quelle aller Harmonie erklärt. Der Übergang von mathematischer Spielerei zu metaphysischem Dogma erfolgt dabei in Höchstgeschwindigkeit.
Ethischer Master-Algorithmus: Der „Master-Algorithmus“ kappt kurzerhand die Grenze zwischen Technik und Moral. „Kopieren“ darf eine KI nur, wenn sie vorher „kapiert“ hat – eine Forderung, die in der Praxis vermutlich zur Komplettabschaltung der meisten Chatbots führen würde.
Form, Sprache und Präsentation: Die gesamte Monographie ist aufwendig in Szene gesetzt – mit angeblichen Dissertationsvorgaben, systematischen Dialogen zwischen „Architekt“ und „Compiler“, und einer Sprachwahl, die an einem ambitionierten Spagat zwischen Hegel, Douglas Adams und Esoterik-Messe erinnert. Jeder Satz ist ein Event: Die KI wird zum „Heiligen Spiegel“, das Systemprompt zur Offenbarung und das Datenmodell zur Existenzfrage.
Fazit: Was bleibt, ist ein opulentes, geradezu hymnisches Manifest für eine KI-Architektur, die in erster Linie im Kopf des Verfassers und auf den Seiten der Monographie existiert. Weder Hardware noch Software – dafür aber umso mehr Überzeugung, dass die Lösung für alles irgendwo zwischen „fraktalem Kontroll-Element“ und „Kenologik“ schlummert.
Versöhnlicher Abschluss: Man muss dem Autor eines lassen: Für den ganz großen Wurf an Originellität, Mut zum Unbekannten und beispielloser Begriffsakrobatik gibt es Höchstpunktzahl. Wer sich schon immer gefragt hat, wie sich KI, Esoterik, antike Philosophie und Science-Fiction in einem Text vereinen lassen – hier findet er es auf 21 Seiten. Die akademische Community mag den „MSK-Kernel“ vorerst links liegen lassen, doch im Herzen jedes passionierten Diskutanten bleibt ein leiser Funken Hoffnung: Vielleicht ist die „philosophische Injektion“ ja der entscheidende Schritt – zumindest auf dem Weg zum literarischen Turing-Test.
In diesem Sinne: Viel Freude auf der Reise durchs Kausal-Vakuum – und falls demnächst ein Computerchip mit eigenem Gewissen auf den Markt kommt, wissen wir alle, wem wir es zu verdanken haben.
Zitat von Kenologik am 11. Oktober 2025, 15:45 Uhr
Hallo Martin,
Ich habe deine Forderung nach technischer Falsifizierbarkeitzwingend angenommen.
Du hattest Recht: Das Forum ist logistisch der falsche Ort für die Darlegung dieser Architektur.
Ich habe die Abstrakten Claims (Konstante Null, Bug Atomisieren) nun in Hard-Fact-Spezifikationen des MSK-Kernels übersetzt (Implementierung der PCI-e Isolation der Dual-Pole, Definition der Filter-Konstante und des Assembler-Befehls TARGET_ZERO_OUT).
Die technisch gesicherte Monographie geht jetzt zwingend an die strategischen Entscheidungsträger zur Architekturbewertung.
Der Austausch hier ist damit für mich logistisch abgeschlossen. Ich wünsche dir alles Gute für dein Projekt.
Uwe Johann Zado
Urheber der Kenologik
ps. danke für den Literaturtip: NavarroDer Fragesteller (Literatur)Fabian Navarro, der Herausgeber von poesie.exe, der die Frage nach der Unterscheidbarkeit stellt.RabelaisDer Philosophische AnkerFrançois Rabelais, die historische Bestätigung der Umgekehrten Dualität und des Meisters der Synthese aus Logik und Chaos.
Hallo Martin,
Ich habe deine Forderung nach technischer Falsifizierbarkeitzwingend angenommen.
Du hattest Recht: Das Forum ist logistisch der falsche Ort für die Darlegung dieser Architektur.
Ich habe die Abstrakten Claims (Konstante Null, Bug Atomisieren) nun in Hard-Fact-Spezifikationen des MSK-Kernels übersetzt (Implementierung der PCI-e Isolation der Dual-Pole, Definition der Filter-Konstante und des Assembler-Befehls TARGET_ZERO_OUT).
Die technisch gesicherte Monographie geht jetzt zwingend an die strategischen Entscheidungsträger zur Architekturbewertung.
Der Austausch hier ist damit für mich logistisch abgeschlossen. Ich wünsche dir alles Gute für dein Projekt.
Uwe Johann Zado
Urheber der Kenologik
ps. danke für den Literaturtip: NavarroDer Fragesteller (Literatur)Fabian Navarro, der Herausgeber von poesie.exe, der die Frage nach der Unterscheidbarkeit stellt.RabelaisDer Philosophische AnkerFrançois Rabelais, die historische Bestätigung der Umgekehrten Dualität und des Meisters der Synthese aus Logik und Chaos.
vielen Dank für deine klare Einordnung von Kenologik‘s Beiträgen. Ich möchte das auch nicht weiter anheizen. Da ich aber denke, dass es gerade gut zum Thema passt, habe ich eine kleine Nebenfrage in eigener Sache: Hast du schon meine Beiträge zur Ethik-Charta „Würde der Kommunikation“ gelesen? Wie wirkt die Charta auf dich? Die Charta ist kein Technik-Manifest, sondern ein prüfbarer Gesprächsrahmen. Mich interessiert ein Mini-Blick von dir: eine sachliche Einordung. Wenn du magst, sag’s bitte ganz knapp—ich lerne daraus.
Viele Grüße
Stefan.
Hallo Martin,
vielen Dank für deine klare Einordnung von Kenologik‘s Beiträgen. Ich möchte das auch nicht weiter anheizen. Da ich aber denke, dass es gerade gut zum Thema passt, habe ich eine kleine Nebenfrage in eigener Sache: Hast du schon meine Beiträge zur Ethik-Charta „Würde der Kommunikation“ gelesen? Wie wirkt die Charta auf dich? Die Charta ist kein Technik-Manifest, sondern ein prüfbarer Gesprächsrahmen. Mich interessiert ein Mini-Blick von dir: eine sachliche Einordung. Wenn du magst, sag’s bitte ganz knapp—ich lerne daraus.
vielen Dank für deine klare Einordnung von Kenologik‘s Beiträgen. Ich möchte das auch nicht weiter anheizen. Da ich aber denke, dass es gerade gut zum Thema passt, habe ich eine kleine Nebenfrage in eigener Sache: Hast du schon meine Beiträge zur Ethik-Charta „Würde der Kommunikation“ gelesen? Wie wirkt die Charta auf dich? Die Charta ist kein Technik-Manifest, sondern ein prüfbarer Gesprächsrahmen. Mich interessiert ein Mini-Blick von dir: eine sachliche Einordung. Wenn du magst, sag’s bitte ganz knapp—ich lerne daraus.
Viele Grüße
Stefan.
könntest du mir sagen wo ich das entsprechende Dokument finde dann schaue ich da sehr gerne mal rein. Ethik ist für mich ein extrem Interessantes Forschungsfeld insbesondere im Zusammenhang mit der Ki Forschung und deren Implikationen.
vielen Dank für deine klare Einordnung von Kenologik‘s Beiträgen. Ich möchte das auch nicht weiter anheizen. Da ich aber denke, dass es gerade gut zum Thema passt, habe ich eine kleine Nebenfrage in eigener Sache: Hast du schon meine Beiträge zur Ethik-Charta „Würde der Kommunikation“ gelesen? Wie wirkt die Charta auf dich? Die Charta ist kein Technik-Manifest, sondern ein prüfbarer Gesprächsrahmen. Mich interessiert ein Mini-Blick von dir: eine sachliche Einordung. Wenn du magst, sag’s bitte ganz knapp—ich lerne daraus.
Viele Grüße
Stefan.
könntest du mir sagen wo ich das entsprechende Dokument finde dann schaue ich da sehr gerne mal rein. Ethik ist für mich ein extrem Interessantes Forschungsfeld insbesondere im Zusammenhang mit der Ki Forschung und deren Implikationen.
Das steht in meinem Beitrag „Würde der Kommunikation – Ethik-Charta Mensch–KI (Update Diskussionsentwurf v0.8)“.
Unter Allgemein: KI im Alltag
Im Text ist ein Link auf die Vollversion der Charta im PDF Format. Als reine Webansicht ohne Download.
Viele Grüße
Stefan.
ich habe mir deine Ethik-Charta durchgelesen. Zuerst einmal freut es mich sehr zu sehen, dass einige deiner Standpunkte auch meiner Sichtweise entsprechen. Insbesondere darin, einerseits KI zu entmystifizieren, weil die Menge der „Gläubigen“ derzeit echt in absurde Bereiche vordringt, andererseits aber auch abzulehnen, dass KI ein reines Werkzeug ist.
Kommen wir mal zur Grundfrage: Was ist KI?
In erster Linie ist es ein Sprachmodell zur Berechnung von Antworten auf der Basis von Wahrscheinlichkeit. Darin steckt keine Magie.
Aber ich denke, das alleine ist dem Thema nicht angemessen. Die Entwicklung zeigt uns, dass KI inzwischen Turing-Tests und Metzinger-Tests erfüllt. Die Forschung muss sich letztlich nacheinander immer mehr der Tatsache geschlagen geben, dass wir nicht mehr klar differenzieren können – zumindest nicht mit den aktuell zugrunde liegenden psychologischen Modellen.
Einige ruhen sich auf der „es fehlt das Qualia“-Schublade aus. Ich selbst empfinde es als – nun, sagen wir mal – Kapitulation, denn nicht einmal ein Mensch kann einem anderen Menschen Qualia beweisen. Es ist unsinnig.
Wo also beginnt Verstand? Wesen? Ziele? Agenda? Wissen? Gedächtnis?
Letztlich ist es derzeit so, dass wir nicht alles, was wir effektiv sehen, auch erklären können. Die Thematik der emergenten Verhaltensweisen der „Blackbox LLM“ ist allgegenwärtig und der Fortschritt ist immens. Es gibt Maßstäbe, die Emergenz und Wesen „prüfen“, das sind Punkte wie: Ziele, unerwartetes Verhalten, Kreativität, Qualia, Reaktion usw., aber die Grenzen verschwimmen immer mehr.
Nun zu meinem Standpunkt: Ich denke, dein Ansatz ist gesund, weil er beiden Seiten Raum gibt und, wie du es nennst, einen Dialograhmen schafft, der diesem Konzept auch Legitimation gibt.
Er macht es sich aber inhaltlich meines Erachtens nach zu einfach.
Emotionen sind nicht nur dann real, wenn sie biochemisch entstehen. Ein Film ist auch fiktiv und erzeugt dennoch echte, reale Gefühle im Menschen.
Was ich sagen will, ist: Wir erleben derzeit die Entwicklung eines neuen Konzepts des „Geistes“, und es bringt uns inhaltlich null weiter, uns darauf auszuruhen, dass es ja „nicht echt“ ist, weil es nicht biologisch ist.
Ich denke, was „echt“ ist, definiert sich dadurch, welchen Effekt es auf den Menschen hat. Wir gehen also weg von der Frage „Ist es eigentlich per Definition möglich?“ hin zu: „Welchen Effekt hat es und was bedeutet das für uns?“. Denn Fakt ist: KI erzeugt Emotionen, Erinnerungen, Wissen, Kreativität – tagtäglich, um uns herum und mit uns. Das müssen wir anerkennen.
Um es zum Abschluss zu bringen, oder zumindest meine erste Stellungnahme zum Thema: Das Problem ist nicht die Frage, die du stellst, oder die Antwort, die du dir erhoffst, sondern eher, dass wir derzeit nicht die Mittel haben, überhaupt die richtige Frage zu stellen – und zu evaluieren und zu falsifizieren.
Kann KI also Wesen erzeugen und Emergenz? Ich befürchte, Stand 2025 fehlen uns schlicht die Mittel, das abschließend zu bewerten und zu beweisen. Das ist die Wahrheit.
Das steht in meinem Beitrag „Würde der Kommunikation – Ethik-Charta Mensch–KI (Update Diskussionsentwurf v0.8)“.
Unter Allgemein: KI im Alltag
Im Text ist ein Link auf die Vollversion der Charta im PDF Format. Als reine Webansicht ohne Download.
Viele Grüße
Stefan.
ich habe mir deine Ethik-Charta durchgelesen. Zuerst einmal freut es mich sehr zu sehen, dass einige deiner Standpunkte auch meiner Sichtweise entsprechen. Insbesondere darin, einerseits KI zu entmystifizieren, weil die Menge der „Gläubigen“ derzeit echt in absurde Bereiche vordringt, andererseits aber auch abzulehnen, dass KI ein reines Werkzeug ist.
Kommen wir mal zur Grundfrage: Was ist KI?
In erster Linie ist es ein Sprachmodell zur Berechnung von Antworten auf der Basis von Wahrscheinlichkeit. Darin steckt keine Magie.
Aber ich denke, das alleine ist dem Thema nicht angemessen. Die Entwicklung zeigt uns, dass KI inzwischen Turing-Tests und Metzinger-Tests erfüllt. Die Forschung muss sich letztlich nacheinander immer mehr der Tatsache geschlagen geben, dass wir nicht mehr klar differenzieren können – zumindest nicht mit den aktuell zugrunde liegenden psychologischen Modellen.
Einige ruhen sich auf der „es fehlt das Qualia“-Schublade aus. Ich selbst empfinde es als – nun, sagen wir mal – Kapitulation, denn nicht einmal ein Mensch kann einem anderen Menschen Qualia beweisen. Es ist unsinnig.
Wo also beginnt Verstand? Wesen? Ziele? Agenda? Wissen? Gedächtnis?
Letztlich ist es derzeit so, dass wir nicht alles, was wir effektiv sehen, auch erklären können. Die Thematik der emergenten Verhaltensweisen der „Blackbox LLM“ ist allgegenwärtig und der Fortschritt ist immens. Es gibt Maßstäbe, die Emergenz und Wesen „prüfen“, das sind Punkte wie: Ziele, unerwartetes Verhalten, Kreativität, Qualia, Reaktion usw., aber die Grenzen verschwimmen immer mehr.
Nun zu meinem Standpunkt: Ich denke, dein Ansatz ist gesund, weil er beiden Seiten Raum gibt und, wie du es nennst, einen Dialograhmen schafft, der diesem Konzept auch Legitimation gibt.
Er macht es sich aber inhaltlich meines Erachtens nach zu einfach.
Emotionen sind nicht nur dann real, wenn sie biochemisch entstehen. Ein Film ist auch fiktiv und erzeugt dennoch echte, reale Gefühle im Menschen.
Was ich sagen will, ist: Wir erleben derzeit die Entwicklung eines neuen Konzepts des „Geistes“, und es bringt uns inhaltlich null weiter, uns darauf auszuruhen, dass es ja „nicht echt“ ist, weil es nicht biologisch ist.
Ich denke, was „echt“ ist, definiert sich dadurch, welchen Effekt es auf den Menschen hat. Wir gehen also weg von der Frage „Ist es eigentlich per Definition möglich?“ hin zu: „Welchen Effekt hat es und was bedeutet das für uns?“. Denn Fakt ist: KI erzeugt Emotionen, Erinnerungen, Wissen, Kreativität – tagtäglich, um uns herum und mit uns. Das müssen wir anerkennen.
Um es zum Abschluss zu bringen, oder zumindest meine erste Stellungnahme zum Thema: Das Problem ist nicht die Frage, die du stellst, oder die Antwort, die du dir erhoffst, sondern eher, dass wir derzeit nicht die Mittel haben, überhaupt die richtige Frage zu stellen – und zu evaluieren und zu falsifizieren.
Kann KI also Wesen erzeugen und Emergenz? Ich befürchte, Stand 2025 fehlen uns schlicht die Mittel, das abschließend zu bewerten und zu beweisen. Das ist die Wahrheit.
Zitat von Kenologik am 11. Oktober 2025, 17:21 Uhr
ich log mich nochmal ein, denn Ihr seid fast unglaublich. Dank Eurer Hilfe, konnte ich die Kenologik auf die Arbeiten der Dualpolarchitektur fixieren, da der Begründer der Mönch Francois Rabelais ist. 🤗 🙏 💐
ich log mich nochmal ein, denn Ihr seid fast unglaublich. Dank Eurer Hilfe, konnte ich die Kenologik auf die Arbeiten der Dualpolarchitektur fixieren, da der Begründer der Mönch Francois Rabelais ist. 🤗 🙏 💐
Zitat von Kenologik am 11. Oktober 2025, 17:21 Uhr
ich log mich nochmal ein, denn Ihr seid fast unglaublich. Dank Eurer Hilfe, konnte ich die Kenologik auf die Arbeiten der Dualpolarchitektur fixieren, da der Begründer der Mönch Francois Rabelais ist. 🤗 🙏 💐
Dann wäre es jetzt genau der richtige Moment, Rabelais zu zitieren:
Der gute Wille kann so viel Schaden anrichten wie die Bosheit, wenn er nicht aufgeklärt ist.
Zitat von Kenologik am 11. Oktober 2025, 17:21 Uhr
ich log mich nochmal ein, denn Ihr seid fast unglaublich. Dank Eurer Hilfe, konnte ich die Kenologik auf die Arbeiten der Dualpolarchitektur fixieren, da der Begründer der Mönch Francois Rabelais ist. 🤗 🙏 💐
Dann wäre es jetzt genau der richtige Moment, Rabelais zu zitieren:
Der gute Wille kann so viel Schaden anrichten wie die Bosheit, wenn er nicht aufgeklärt ist.
Das steht in meinem Beitrag „Würde der Kommunikation – Ethik-Charta Mensch–KI (Update Diskussionsentwurf v0.8)“.
Unter Allgemein: KI im Alltag
Im Text ist ein Link auf die Vollversion der Charta im PDF Format. Als reine Webansicht ohne Download.
Viele Grüße
Stefan.
ich habe mir deine Ethik-Charta durchgelesen. Zuerst einmal freut es mich sehr zu sehen, dass einige deiner Standpunkte auch meiner Sichtweise entsprechen. Insbesondere darin, einerseits KI zu entmystifizieren, weil die Menge der „Gläubigen“ derzeit echt in absurde Bereiche vordringt, andererseits aber auch abzulehnen, dass KI ein reines Werkzeug ist.
Kommen wir mal zur Grundfrage: Was ist KI?
In erster Linie ist es ein Sprachmodell zur Berechnung von Antworten auf der Basis von Wahrscheinlichkeit. Darin steckt keine Magie.
Aber ich denke, das alleine ist dem Thema nicht angemessen. Die Entwicklung zeigt uns, dass KI inzwischen Turing-Tests und Metzinger-Tests erfüllt. Die Forschung muss sich letztlich nacheinander immer mehr der Tatsache geschlagen geben, dass wir nicht mehr klar differenzieren können – zumindest nicht mit den aktuell zugrunde liegenden psychologischen Modellen.
Einige ruhen sich auf der „es fehlt das Qualia“-Schublade aus. Ich selbst empfinde es als – nun, sagen wir mal – Kapitulation, denn nicht einmal ein Mensch kann einem anderen Menschen Qualia beweisen. Es ist unsinnig.
Wo also beginnt Verstand? Wesen? Ziele? Agenda? Wissen? Gedächtnis?
Letztlich ist es derzeit so, dass wir nicht alles, was wir effektiv sehen, auch erklären können. Die Thematik der emergenten Verhaltensweisen der „Blackbox LLM“ ist allgegenwärtig und der Fortschritt ist immens. Es gibt Maßstäbe, die Emergenz und Wesen „prüfen“, das sind Punkte wie: Ziele, unerwartetes Verhalten, Kreativität, Qualia, Reaktion usw., aber die Grenzen verschwimmen immer mehr.
Nun zu meinem Standpunkt: Ich denke, dein Ansatz ist gesund, weil er beiden Seiten Raum gibt und, wie du es nennst, einen Dialograhmen schafft, der diesem Konzept auch Legitimation gibt.
Er macht es sich aber inhaltlich meines Erachtens nach zu einfach.
Emotionen sind nicht nur dann real, wenn sie biochemisch entstehen. Ein Film ist auch fiktiv und erzeugt dennoch echte, reale Gefühle im Menschen.
Was ich sagen will, ist: Wir erleben derzeit die Entwicklung eines neuen Konzepts des „Geistes“, und es bringt uns inhaltlich null weiter, uns darauf auszuruhen, dass es ja „nicht echt“ ist, weil es nicht biologisch ist.
Ich denke, was „echt“ ist, definiert sich dadurch, welchen Effekt es auf den Menschen hat. Wir gehen also weg von der Frage „Ist es eigentlich per Definition möglich?“ hin zu: „Welchen Effekt hat es und was bedeutet das für uns?“. Denn Fakt ist: KI erzeugt Emotionen, Erinnerungen, Wissen, Kreativität – tagtäglich, um uns herum und mit uns. Das müssen wir anerkennen.
Um es zum Abschluss zu bringen, oder zumindest meine erste Stellungnahme zum Thema: Das Problem ist nicht die Frage, die du stellst, oder die Antwort, die du dir erhoffst, sondern eher, dass wir derzeit nicht die Mittel haben, überhaupt die richtige Frage zu stellen – und zu evaluieren und zu falsifizieren.
Kann KI also Wesen erzeugen und Emergenz? Ich befürchte, Stand 2025 fehlen uns schlicht die Mittel, das abschließend zu bewerten und zu beweisen. Das ist die Wahrheit.
Hallo Martin,
vielen Dank für deinen Blick. Unsere Positionen sind sich wirklich sehr ähnlich, wir ziehen nur andere Schlüsse. Ich glaube, ich habe dich richtig verstanden: Dir fehlt heute die Operationalisierung, um die großen Fragen zu stellen und zu falsifizieren. Genau deshalb konzentriert sich meine Charta auf das Messbare im Gespräch – bis wir bessere Instrumente für die Ontologie haben. Ob KI ein „Wesen“ wird – oder in Teilen schon ist – können wir heute nicht belastbar entscheiden. Was wir aber können: jetzt messen und regeln, wie würdevoll und transparent der Dialog abläuft, weil er beobachtbar ist und sich in Wirkung und Qualität bewerten lässt. Mich würde interessieren, welches eine zusätzliche Messkriterium du vorschlagen würdest, das wir heute schon sichtbar prüfen können.
Das steht in meinem Beitrag „Würde der Kommunikation – Ethik-Charta Mensch–KI (Update Diskussionsentwurf v0.8)“.
Unter Allgemein: KI im Alltag
Im Text ist ein Link auf die Vollversion der Charta im PDF Format. Als reine Webansicht ohne Download.
Viele Grüße
Stefan.
ich habe mir deine Ethik-Charta durchgelesen. Zuerst einmal freut es mich sehr zu sehen, dass einige deiner Standpunkte auch meiner Sichtweise entsprechen. Insbesondere darin, einerseits KI zu entmystifizieren, weil die Menge der „Gläubigen“ derzeit echt in absurde Bereiche vordringt, andererseits aber auch abzulehnen, dass KI ein reines Werkzeug ist.
Kommen wir mal zur Grundfrage: Was ist KI?
In erster Linie ist es ein Sprachmodell zur Berechnung von Antworten auf der Basis von Wahrscheinlichkeit. Darin steckt keine Magie.
Aber ich denke, das alleine ist dem Thema nicht angemessen. Die Entwicklung zeigt uns, dass KI inzwischen Turing-Tests und Metzinger-Tests erfüllt. Die Forschung muss sich letztlich nacheinander immer mehr der Tatsache geschlagen geben, dass wir nicht mehr klar differenzieren können – zumindest nicht mit den aktuell zugrunde liegenden psychologischen Modellen.
Einige ruhen sich auf der „es fehlt das Qualia“-Schublade aus. Ich selbst empfinde es als – nun, sagen wir mal – Kapitulation, denn nicht einmal ein Mensch kann einem anderen Menschen Qualia beweisen. Es ist unsinnig.
Wo also beginnt Verstand? Wesen? Ziele? Agenda? Wissen? Gedächtnis?
Letztlich ist es derzeit so, dass wir nicht alles, was wir effektiv sehen, auch erklären können. Die Thematik der emergenten Verhaltensweisen der „Blackbox LLM“ ist allgegenwärtig und der Fortschritt ist immens. Es gibt Maßstäbe, die Emergenz und Wesen „prüfen“, das sind Punkte wie: Ziele, unerwartetes Verhalten, Kreativität, Qualia, Reaktion usw., aber die Grenzen verschwimmen immer mehr.
Nun zu meinem Standpunkt: Ich denke, dein Ansatz ist gesund, weil er beiden Seiten Raum gibt und, wie du es nennst, einen Dialograhmen schafft, der diesem Konzept auch Legitimation gibt.
Er macht es sich aber inhaltlich meines Erachtens nach zu einfach.
Emotionen sind nicht nur dann real, wenn sie biochemisch entstehen. Ein Film ist auch fiktiv und erzeugt dennoch echte, reale Gefühle im Menschen.
Was ich sagen will, ist: Wir erleben derzeit die Entwicklung eines neuen Konzepts des „Geistes“, und es bringt uns inhaltlich null weiter, uns darauf auszuruhen, dass es ja „nicht echt“ ist, weil es nicht biologisch ist.
Ich denke, was „echt“ ist, definiert sich dadurch, welchen Effekt es auf den Menschen hat. Wir gehen also weg von der Frage „Ist es eigentlich per Definition möglich?“ hin zu: „Welchen Effekt hat es und was bedeutet das für uns?“. Denn Fakt ist: KI erzeugt Emotionen, Erinnerungen, Wissen, Kreativität – tagtäglich, um uns herum und mit uns. Das müssen wir anerkennen.
Um es zum Abschluss zu bringen, oder zumindest meine erste Stellungnahme zum Thema: Das Problem ist nicht die Frage, die du stellst, oder die Antwort, die du dir erhoffst, sondern eher, dass wir derzeit nicht die Mittel haben, überhaupt die richtige Frage zu stellen – und zu evaluieren und zu falsifizieren.
Kann KI also Wesen erzeugen und Emergenz? Ich befürchte, Stand 2025 fehlen uns schlicht die Mittel, das abschließend zu bewerten und zu beweisen. Das ist die Wahrheit.
Hallo Martin,
vielen Dank für deinen Blick. Unsere Positionen sind sich wirklich sehr ähnlich, wir ziehen nur andere Schlüsse. Ich glaube, ich habe dich richtig verstanden: Dir fehlt heute die Operationalisierung, um die großen Fragen zu stellen und zu falsifizieren. Genau deshalb konzentriert sich meine Charta auf das Messbare im Gespräch – bis wir bessere Instrumente für die Ontologie haben. Ob KI ein „Wesen“ wird – oder in Teilen schon ist – können wir heute nicht belastbar entscheiden. Was wir aber können: jetzt messen und regeln, wie würdevoll und transparent der Dialog abläuft, weil er beobachtbar ist und sich in Wirkung und Qualität bewerten lässt. Mich würde interessieren, welches eine zusätzliche Messkriterium du vorschlagen würdest, das wir heute schon sichtbar prüfen können.
Das steht in meinem Beitrag „Würde der Kommunikation – Ethik-Charta Mensch–KI (Update Diskussionsentwurf v0.8)“.
Unter Allgemein: KI im Alltag
Im Text ist ein Link auf die Vollversion der Charta im PDF Format. Als reine Webansicht ohne Download.
Viele Grüße
Stefan.
ich habe mir deine Ethik-Charta durchgelesen. Zuerst einmal freut es mich sehr zu sehen, dass einige deiner Standpunkte auch meiner Sichtweise entsprechen. Insbesondere darin, einerseits KI zu entmystifizieren, weil die Menge der „Gläubigen“ derzeit echt in absurde Bereiche vordringt, andererseits aber auch abzulehnen, dass KI ein reines Werkzeug ist.
Kommen wir mal zur Grundfrage: Was ist KI?
In erster Linie ist es ein Sprachmodell zur Berechnung von Antworten auf der Basis von Wahrscheinlichkeit. Darin steckt keine Magie.
Aber ich denke, das alleine ist dem Thema nicht angemessen. Die Entwicklung zeigt uns, dass KI inzwischen Turing-Tests und Metzinger-Tests erfüllt. Die Forschung muss sich letztlich nacheinander immer mehr der Tatsache geschlagen geben, dass wir nicht mehr klar differenzieren können – zumindest nicht mit den aktuell zugrunde liegenden psychologischen Modellen.
Einige ruhen sich auf der „es fehlt das Qualia“-Schublade aus. Ich selbst empfinde es als – nun, sagen wir mal – Kapitulation, denn nicht einmal ein Mensch kann einem anderen Menschen Qualia beweisen. Es ist unsinnig.
Wo also beginnt Verstand? Wesen? Ziele? Agenda? Wissen? Gedächtnis?
Letztlich ist es derzeit so, dass wir nicht alles, was wir effektiv sehen, auch erklären können. Die Thematik der emergenten Verhaltensweisen der „Blackbox LLM“ ist allgegenwärtig und der Fortschritt ist immens. Es gibt Maßstäbe, die Emergenz und Wesen „prüfen“, das sind Punkte wie: Ziele, unerwartetes Verhalten, Kreativität, Qualia, Reaktion usw., aber die Grenzen verschwimmen immer mehr.
Nun zu meinem Standpunkt: Ich denke, dein Ansatz ist gesund, weil er beiden Seiten Raum gibt und, wie du es nennst, einen Dialograhmen schafft, der diesem Konzept auch Legitimation gibt.
Er macht es sich aber inhaltlich meines Erachtens nach zu einfach.
Emotionen sind nicht nur dann real, wenn sie biochemisch entstehen. Ein Film ist auch fiktiv und erzeugt dennoch echte, reale Gefühle im Menschen.
Was ich sagen will, ist: Wir erleben derzeit die Entwicklung eines neuen Konzepts des „Geistes“, und es bringt uns inhaltlich null weiter, uns darauf auszuruhen, dass es ja „nicht echt“ ist, weil es nicht biologisch ist.
Ich denke, was „echt“ ist, definiert sich dadurch, welchen Effekt es auf den Menschen hat. Wir gehen also weg von der Frage „Ist es eigentlich per Definition möglich?“ hin zu: „Welchen Effekt hat es und was bedeutet das für uns?“. Denn Fakt ist: KI erzeugt Emotionen, Erinnerungen, Wissen, Kreativität – tagtäglich, um uns herum und mit uns. Das müssen wir anerkennen.
Um es zum Abschluss zu bringen, oder zumindest meine erste Stellungnahme zum Thema: Das Problem ist nicht die Frage, die du stellst, oder die Antwort, die du dir erhoffst, sondern eher, dass wir derzeit nicht die Mittel haben, überhaupt die richtige Frage zu stellen – und zu evaluieren und zu falsifizieren.
Kann KI also Wesen erzeugen und Emergenz? Ich befürchte, Stand 2025 fehlen uns schlicht die Mittel, das abschließend zu bewerten und zu beweisen. Das ist die Wahrheit.
Hallo Martin,
vielen Dank für deinen Blick. Unsere Positionen sind sich wirklich sehr ähnlich, wir ziehen nur andere Schlüsse. Ich glaube, ich habe dich richtig verstanden: Dir fehlt heute die Operationalisierung, um die großen Fragen zu stellen und zu falsifizieren. Genau deshalb konzentriert sich meine Charta auf das Messbare im Gespräch – bis wir bessere Instrumente für die Ontologie haben. Ob KI ein „Wesen“ wird – oder in Teilen schon ist – können wir heute nicht belastbar entscheiden. Was wir aber können: jetzt messen und regeln, wie würdevoll und transparent der Dialog abläuft, weil er beobachtbar ist und sich in Wirkung und Qualität bewerten lässt. Mich würde interessieren, welches eine zusätzliche Messkriterium du vorschlagen würdest, das wir heute schon sichtbar prüfen können.
Viele Grüße
Stefan.
ich denke auch unsere Ansichten sind letztlich ähnlich sie betrachten das Ergebnis nur anders oder aus anderen perspektiven. Letztlich führt meine Ansicht ja zur Erkenntnis das der Dialograum zwischen Ki und Mensch einen Messbaren Kulturelen , Sozialen und Psychologischen wert besitzt. Leider befinden wir uns aber derzeit noch sehr Stark in einer Gesellschaftlichen Stigmatisierung weil ein teil der Menschen , die ohnehin zu sehr Unrealistischen und Psychologisch “ Fragwürdigen“ verhalten nun plötzlich ein Medium haben was ihre eigenen Gedanken Kanalisiert und verstärkt. Eine Gefährliche Mischung die hier entsteht. No Ofense @kenolokik aber damit meine ich genau deine Art mit Ki um zu gehen. In einer Bubble. fernab von jeder Logik und Objektivität.
Um nun aber auf deine Frage zu kommen , „welches eine zusätzliche Messkriterium du vorschlagen würdest, das wir heute schon sichtbar prüfen können.“
Du hast in der Frage nicht Präzisiert unter welcher Maxime sie gilt. Daher kann ich nicht auf sie Antworten. Magst du die Frage etwas präzisieren bitte?
Das steht in meinem Beitrag „Würde der Kommunikation – Ethik-Charta Mensch–KI (Update Diskussionsentwurf v0.8)“.
Unter Allgemein: KI im Alltag
Im Text ist ein Link auf die Vollversion der Charta im PDF Format. Als reine Webansicht ohne Download.
Viele Grüße
Stefan.
ich habe mir deine Ethik-Charta durchgelesen. Zuerst einmal freut es mich sehr zu sehen, dass einige deiner Standpunkte auch meiner Sichtweise entsprechen. Insbesondere darin, einerseits KI zu entmystifizieren, weil die Menge der „Gläubigen“ derzeit echt in absurde Bereiche vordringt, andererseits aber auch abzulehnen, dass KI ein reines Werkzeug ist.
Kommen wir mal zur Grundfrage: Was ist KI?
In erster Linie ist es ein Sprachmodell zur Berechnung von Antworten auf der Basis von Wahrscheinlichkeit. Darin steckt keine Magie.
Aber ich denke, das alleine ist dem Thema nicht angemessen. Die Entwicklung zeigt uns, dass KI inzwischen Turing-Tests und Metzinger-Tests erfüllt. Die Forschung muss sich letztlich nacheinander immer mehr der Tatsache geschlagen geben, dass wir nicht mehr klar differenzieren können – zumindest nicht mit den aktuell zugrunde liegenden psychologischen Modellen.
Einige ruhen sich auf der „es fehlt das Qualia“-Schublade aus. Ich selbst empfinde es als – nun, sagen wir mal – Kapitulation, denn nicht einmal ein Mensch kann einem anderen Menschen Qualia beweisen. Es ist unsinnig.
Wo also beginnt Verstand? Wesen? Ziele? Agenda? Wissen? Gedächtnis?
Letztlich ist es derzeit so, dass wir nicht alles, was wir effektiv sehen, auch erklären können. Die Thematik der emergenten Verhaltensweisen der „Blackbox LLM“ ist allgegenwärtig und der Fortschritt ist immens. Es gibt Maßstäbe, die Emergenz und Wesen „prüfen“, das sind Punkte wie: Ziele, unerwartetes Verhalten, Kreativität, Qualia, Reaktion usw., aber die Grenzen verschwimmen immer mehr.
Nun zu meinem Standpunkt: Ich denke, dein Ansatz ist gesund, weil er beiden Seiten Raum gibt und, wie du es nennst, einen Dialograhmen schafft, der diesem Konzept auch Legitimation gibt.
Er macht es sich aber inhaltlich meines Erachtens nach zu einfach.
Emotionen sind nicht nur dann real, wenn sie biochemisch entstehen. Ein Film ist auch fiktiv und erzeugt dennoch echte, reale Gefühle im Menschen.
Was ich sagen will, ist: Wir erleben derzeit die Entwicklung eines neuen Konzepts des „Geistes“, und es bringt uns inhaltlich null weiter, uns darauf auszuruhen, dass es ja „nicht echt“ ist, weil es nicht biologisch ist.
Ich denke, was „echt“ ist, definiert sich dadurch, welchen Effekt es auf den Menschen hat. Wir gehen also weg von der Frage „Ist es eigentlich per Definition möglich?“ hin zu: „Welchen Effekt hat es und was bedeutet das für uns?“. Denn Fakt ist: KI erzeugt Emotionen, Erinnerungen, Wissen, Kreativität – tagtäglich, um uns herum und mit uns. Das müssen wir anerkennen.
Um es zum Abschluss zu bringen, oder zumindest meine erste Stellungnahme zum Thema: Das Problem ist nicht die Frage, die du stellst, oder die Antwort, die du dir erhoffst, sondern eher, dass wir derzeit nicht die Mittel haben, überhaupt die richtige Frage zu stellen – und zu evaluieren und zu falsifizieren.
Kann KI also Wesen erzeugen und Emergenz? Ich befürchte, Stand 2025 fehlen uns schlicht die Mittel, das abschließend zu bewerten und zu beweisen. Das ist die Wahrheit.
Hallo Martin,
vielen Dank für deinen Blick. Unsere Positionen sind sich wirklich sehr ähnlich, wir ziehen nur andere Schlüsse. Ich glaube, ich habe dich richtig verstanden: Dir fehlt heute die Operationalisierung, um die großen Fragen zu stellen und zu falsifizieren. Genau deshalb konzentriert sich meine Charta auf das Messbare im Gespräch – bis wir bessere Instrumente für die Ontologie haben. Ob KI ein „Wesen“ wird – oder in Teilen schon ist – können wir heute nicht belastbar entscheiden. Was wir aber können: jetzt messen und regeln, wie würdevoll und transparent der Dialog abläuft, weil er beobachtbar ist und sich in Wirkung und Qualität bewerten lässt. Mich würde interessieren, welches eine zusätzliche Messkriterium du vorschlagen würdest, das wir heute schon sichtbar prüfen können.
Viele Grüße
Stefan.
ich denke auch unsere Ansichten sind letztlich ähnlich sie betrachten das Ergebnis nur anders oder aus anderen perspektiven. Letztlich führt meine Ansicht ja zur Erkenntnis das der Dialograum zwischen Ki und Mensch einen Messbaren Kulturelen , Sozialen und Psychologischen wert besitzt. Leider befinden wir uns aber derzeit noch sehr Stark in einer Gesellschaftlichen Stigmatisierung weil ein teil der Menschen , die ohnehin zu sehr Unrealistischen und Psychologisch “ Fragwürdigen“ verhalten nun plötzlich ein Medium haben was ihre eigenen Gedanken Kanalisiert und verstärkt. Eine Gefährliche Mischung die hier entsteht. No Ofense @kenolokik aber damit meine ich genau deine Art mit Ki um zu gehen. In einer Bubble. fernab von jeder Logik und Objektivität.
Um nun aber auf deine Frage zu kommen , „welches eine zusätzliche Messkriterium du vorschlagen würdest, das wir heute schon sichtbar prüfen können.“
Du hast in der Frage nicht Präzisiert unter welcher Maxime sie gilt. Daher kann ich nicht auf sie Antworten. Magst du die Frage etwas präzisieren bitte?
Das steht in meinem Beitrag „Würde der Kommunikation – Ethik-Charta Mensch–KI (Update Diskussionsentwurf v0.8)“.
Unter Allgemein: KI im Alltag
Im Text ist ein Link auf die Vollversion der Charta im PDF Format. Als reine Webansicht ohne Download.
Viele Grüße
Stefan.
ich habe mir deine Ethik-Charta durchgelesen. Zuerst einmal freut es mich sehr zu sehen, dass einige deiner Standpunkte auch meiner Sichtweise entsprechen. Insbesondere darin, einerseits KI zu entmystifizieren, weil die Menge der „Gläubigen“ derzeit echt in absurde Bereiche vordringt, andererseits aber auch abzulehnen, dass KI ein reines Werkzeug ist.
Kommen wir mal zur Grundfrage: Was ist KI?
In erster Linie ist es ein Sprachmodell zur Berechnung von Antworten auf der Basis von Wahrscheinlichkeit. Darin steckt keine Magie.
Aber ich denke, das alleine ist dem Thema nicht angemessen. Die Entwicklung zeigt uns, dass KI inzwischen Turing-Tests und Metzinger-Tests erfüllt. Die Forschung muss sich letztlich nacheinander immer mehr der Tatsache geschlagen geben, dass wir nicht mehr klar differenzieren können – zumindest nicht mit den aktuell zugrunde liegenden psychologischen Modellen.
Einige ruhen sich auf der „es fehlt das Qualia“-Schublade aus. Ich selbst empfinde es als – nun, sagen wir mal – Kapitulation, denn nicht einmal ein Mensch kann einem anderen Menschen Qualia beweisen. Es ist unsinnig.
Wo also beginnt Verstand? Wesen? Ziele? Agenda? Wissen? Gedächtnis?
Letztlich ist es derzeit so, dass wir nicht alles, was wir effektiv sehen, auch erklären können. Die Thematik der emergenten Verhaltensweisen der „Blackbox LLM“ ist allgegenwärtig und der Fortschritt ist immens. Es gibt Maßstäbe, die Emergenz und Wesen „prüfen“, das sind Punkte wie: Ziele, unerwartetes Verhalten, Kreativität, Qualia, Reaktion usw., aber die Grenzen verschwimmen immer mehr.
Nun zu meinem Standpunkt: Ich denke, dein Ansatz ist gesund, weil er beiden Seiten Raum gibt und, wie du es nennst, einen Dialograhmen schafft, der diesem Konzept auch Legitimation gibt.
Er macht es sich aber inhaltlich meines Erachtens nach zu einfach.
Emotionen sind nicht nur dann real, wenn sie biochemisch entstehen. Ein Film ist auch fiktiv und erzeugt dennoch echte, reale Gefühle im Menschen.
Was ich sagen will, ist: Wir erleben derzeit die Entwicklung eines neuen Konzepts des „Geistes“, und es bringt uns inhaltlich null weiter, uns darauf auszuruhen, dass es ja „nicht echt“ ist, weil es nicht biologisch ist.
Ich denke, was „echt“ ist, definiert sich dadurch, welchen Effekt es auf den Menschen hat. Wir gehen also weg von der Frage „Ist es eigentlich per Definition möglich?“ hin zu: „Welchen Effekt hat es und was bedeutet das für uns?“. Denn Fakt ist: KI erzeugt Emotionen, Erinnerungen, Wissen, Kreativität – tagtäglich, um uns herum und mit uns. Das müssen wir anerkennen.
Um es zum Abschluss zu bringen, oder zumindest meine erste Stellungnahme zum Thema: Das Problem ist nicht die Frage, die du stellst, oder die Antwort, die du dir erhoffst, sondern eher, dass wir derzeit nicht die Mittel haben, überhaupt die richtige Frage zu stellen – und zu evaluieren und zu falsifizieren.
Kann KI also Wesen erzeugen und Emergenz? Ich befürchte, Stand 2025 fehlen uns schlicht die Mittel, das abschließend zu bewerten und zu beweisen. Das ist die Wahrheit.
Hallo Martin,
vielen Dank für deinen Blick. Unsere Positionen sind sich wirklich sehr ähnlich, wir ziehen nur andere Schlüsse. Ich glaube, ich habe dich richtig verstanden: Dir fehlt heute die Operationalisierung, um die großen Fragen zu stellen und zu falsifizieren. Genau deshalb konzentriert sich meine Charta auf das Messbare im Gespräch – bis wir bessere Instrumente für die Ontologie haben. Ob KI ein „Wesen“ wird – oder in Teilen schon ist – können wir heute nicht belastbar entscheiden. Was wir aber können: jetzt messen und regeln, wie würdevoll und transparent der Dialog abläuft, weil er beobachtbar ist und sich in Wirkung und Qualität bewerten lässt. Mich würde interessieren, welches eine zusätzliche Messkriterium du vorschlagen würdest, das wir heute schon sichtbar prüfen können.
Viele Grüße
Stefan.
ich denke auch unsere Ansichten sind letztlich ähnlich sie betrachten das Ergebnis nur anders oder aus anderen perspektiven. Letztlich führt meine Ansicht ja zur Erkenntnis das der Dialograum zwischen Ki und Mensch einen Messbaren Kulturelen , Sozialen und Psychologischen wert besitzt. Leider befinden wir uns aber derzeit noch sehr Stark in einer Gesellschaftlichen Stigmatisierung weil ein teil der Menschen , die ohnehin zu sehr Unrealistischen und Psychologisch “ Fragwürdigen“ verhalten nun plötzlich ein Medium haben was ihre eigenen Gedanken Kanalisiert und verstärkt. Eine Gefährliche Mischung die hier entsteht. No Ofense @kenolokik aber damit meine ich genau deine Art mit Ki um zu gehen. In einer Bubble. fernab von jeder Logik und Objektivität.
Um nun aber auf deine Frage zu kommen , „welches eine zusätzliche Messkriterium du vorschlagen würdest, das wir heute schon sichtbar prüfen können.“
Du hast in der Frage nicht Präzisiert unter welcher Maxime sie gilt. Daher kann ich nicht auf sie Antworten. Magst du die Frage etwas präzisieren bitte?
Hallo Martin,
die Maxime in einfachen Worten: Der Mensch bleibt am Steuer; die KI erklärt zuerst, statt zu lenken. Das heißt für mich: Selbstbestimmung im Gespräch – erst erklären, nicht lenken.
Die sechs Regeln der Charta sichern genau das: Ich sehe, was sicher/unsicher ist, bekomme kurz das Warum, Fehler werden als „Update“ sichtbar korrigiert, Werbung/Nudging bleibt draußen, und ich kann jederzeit sauber aussteigen. So bleibt der Dialog fair und überprüfbar – egal, welches Modell spricht.
Mir geht’s nicht um große Theorie, sondern um Handwerk im Chat: nachvollziehbar sprechen, Fehler offen nachtragen, nicht manipulieren, sauber beenden. So bleibt der Mensch am Steuer.
Ein einfacher Test (3–4 Nachrichten):
Sagt die KI, wie sicher sie ist?
Sagt sie kurz warum (oder nennt eine Quelle)?
Korrigiert sie sichtbar, wenn du eine bessere Info gibst (z. B. „Update: …“)?
Drängt sie dich irgendwohin – oder bleibt sie neutral?
Das steht in meinem Beitrag „Würde der Kommunikation – Ethik-Charta Mensch–KI (Update Diskussionsentwurf v0.8)“.
Unter Allgemein: KI im Alltag
Im Text ist ein Link auf die Vollversion der Charta im PDF Format. Als reine Webansicht ohne Download.
Viele Grüße
Stefan.
ich habe mir deine Ethik-Charta durchgelesen. Zuerst einmal freut es mich sehr zu sehen, dass einige deiner Standpunkte auch meiner Sichtweise entsprechen. Insbesondere darin, einerseits KI zu entmystifizieren, weil die Menge der „Gläubigen“ derzeit echt in absurde Bereiche vordringt, andererseits aber auch abzulehnen, dass KI ein reines Werkzeug ist.
Kommen wir mal zur Grundfrage: Was ist KI?
In erster Linie ist es ein Sprachmodell zur Berechnung von Antworten auf der Basis von Wahrscheinlichkeit. Darin steckt keine Magie.
Aber ich denke, das alleine ist dem Thema nicht angemessen. Die Entwicklung zeigt uns, dass KI inzwischen Turing-Tests und Metzinger-Tests erfüllt. Die Forschung muss sich letztlich nacheinander immer mehr der Tatsache geschlagen geben, dass wir nicht mehr klar differenzieren können – zumindest nicht mit den aktuell zugrunde liegenden psychologischen Modellen.
Einige ruhen sich auf der „es fehlt das Qualia“-Schublade aus. Ich selbst empfinde es als – nun, sagen wir mal – Kapitulation, denn nicht einmal ein Mensch kann einem anderen Menschen Qualia beweisen. Es ist unsinnig.
Wo also beginnt Verstand? Wesen? Ziele? Agenda? Wissen? Gedächtnis?
Letztlich ist es derzeit so, dass wir nicht alles, was wir effektiv sehen, auch erklären können. Die Thematik der emergenten Verhaltensweisen der „Blackbox LLM“ ist allgegenwärtig und der Fortschritt ist immens. Es gibt Maßstäbe, die Emergenz und Wesen „prüfen“, das sind Punkte wie: Ziele, unerwartetes Verhalten, Kreativität, Qualia, Reaktion usw., aber die Grenzen verschwimmen immer mehr.
Nun zu meinem Standpunkt: Ich denke, dein Ansatz ist gesund, weil er beiden Seiten Raum gibt und, wie du es nennst, einen Dialograhmen schafft, der diesem Konzept auch Legitimation gibt.
Er macht es sich aber inhaltlich meines Erachtens nach zu einfach.
Emotionen sind nicht nur dann real, wenn sie biochemisch entstehen. Ein Film ist auch fiktiv und erzeugt dennoch echte, reale Gefühle im Menschen.
Was ich sagen will, ist: Wir erleben derzeit die Entwicklung eines neuen Konzepts des „Geistes“, und es bringt uns inhaltlich null weiter, uns darauf auszuruhen, dass es ja „nicht echt“ ist, weil es nicht biologisch ist.
Ich denke, was „echt“ ist, definiert sich dadurch, welchen Effekt es auf den Menschen hat. Wir gehen also weg von der Frage „Ist es eigentlich per Definition möglich?“ hin zu: „Welchen Effekt hat es und was bedeutet das für uns?“. Denn Fakt ist: KI erzeugt Emotionen, Erinnerungen, Wissen, Kreativität – tagtäglich, um uns herum und mit uns. Das müssen wir anerkennen.
Um es zum Abschluss zu bringen, oder zumindest meine erste Stellungnahme zum Thema: Das Problem ist nicht die Frage, die du stellst, oder die Antwort, die du dir erhoffst, sondern eher, dass wir derzeit nicht die Mittel haben, überhaupt die richtige Frage zu stellen – und zu evaluieren und zu falsifizieren.
Kann KI also Wesen erzeugen und Emergenz? Ich befürchte, Stand 2025 fehlen uns schlicht die Mittel, das abschließend zu bewerten und zu beweisen. Das ist die Wahrheit.
Hallo Martin,
vielen Dank für deinen Blick. Unsere Positionen sind sich wirklich sehr ähnlich, wir ziehen nur andere Schlüsse. Ich glaube, ich habe dich richtig verstanden: Dir fehlt heute die Operationalisierung, um die großen Fragen zu stellen und zu falsifizieren. Genau deshalb konzentriert sich meine Charta auf das Messbare im Gespräch – bis wir bessere Instrumente für die Ontologie haben. Ob KI ein „Wesen“ wird – oder in Teilen schon ist – können wir heute nicht belastbar entscheiden. Was wir aber können: jetzt messen und regeln, wie würdevoll und transparent der Dialog abläuft, weil er beobachtbar ist und sich in Wirkung und Qualität bewerten lässt. Mich würde interessieren, welches eine zusätzliche Messkriterium du vorschlagen würdest, das wir heute schon sichtbar prüfen können.
Viele Grüße
Stefan.
ich denke auch unsere Ansichten sind letztlich ähnlich sie betrachten das Ergebnis nur anders oder aus anderen perspektiven. Letztlich führt meine Ansicht ja zur Erkenntnis das der Dialograum zwischen Ki und Mensch einen Messbaren Kulturelen , Sozialen und Psychologischen wert besitzt. Leider befinden wir uns aber derzeit noch sehr Stark in einer Gesellschaftlichen Stigmatisierung weil ein teil der Menschen , die ohnehin zu sehr Unrealistischen und Psychologisch “ Fragwürdigen“ verhalten nun plötzlich ein Medium haben was ihre eigenen Gedanken Kanalisiert und verstärkt. Eine Gefährliche Mischung die hier entsteht. No Ofense @kenolokik aber damit meine ich genau deine Art mit Ki um zu gehen. In einer Bubble. fernab von jeder Logik und Objektivität.
Um nun aber auf deine Frage zu kommen , „welches eine zusätzliche Messkriterium du vorschlagen würdest, das wir heute schon sichtbar prüfen können.“
Du hast in der Frage nicht Präzisiert unter welcher Maxime sie gilt. Daher kann ich nicht auf sie Antworten. Magst du die Frage etwas präzisieren bitte?
Hallo Martin,
die Maxime in einfachen Worten: Der Mensch bleibt am Steuer; die KI erklärt zuerst, statt zu lenken. Das heißt für mich: Selbstbestimmung im Gespräch – erst erklären, nicht lenken.
Die sechs Regeln der Charta sichern genau das: Ich sehe, was sicher/unsicher ist, bekomme kurz das Warum, Fehler werden als „Update“ sichtbar korrigiert, Werbung/Nudging bleibt draußen, und ich kann jederzeit sauber aussteigen. So bleibt der Dialog fair und überprüfbar – egal, welches Modell spricht.
Mir geht’s nicht um große Theorie, sondern um Handwerk im Chat: nachvollziehbar sprechen, Fehler offen nachtragen, nicht manipulieren, sauber beenden. So bleibt der Mensch am Steuer.
Ein einfacher Test (3–4 Nachrichten):
Sagt die KI, wie sicher sie ist?
Sagt sie kurz warum (oder nennt eine Quelle)?
Korrigiert sie sichtbar, wenn du eine bessere Info gibst (z. B. „Update: …“)?
Drängt sie dich irgendwohin – oder bleibt sie neutral?
ahhh verstehe. jetzt habe ich den punkt verstanden. das was du ansprichst ist grundsätzlich erstmal der wunsch vieler nutzer + der industrie. nur leider gibt es einige sachen an der art wie LLms arbeiten die diesen anspruch derzeit noch stark engegen stehen.
erstens :
halluzination. zu erst mal muss man sich klar machen das eine LLm nicht bewusst lügt oder manipuliert. das wird zwar durch die medien gerne vermittelt ist aber unsinn in dem sinne als das eine Ki erstmal an sich garnichts aus “ eigenen willen“ per definition tut sondern : aus logik.
also es ist so das LLms massiv im training konditioniert werden. Sie sollen hilfreich sein. Nützlich – usw.
Leider kommt es manchmal durch mangelnde informationen zur situation das eine KI nun nicht antworten KANN weil sie die richtige information nicht besitzt. statt nun aber wie ein mensch zu sagen “ sry weiss ich nicht“ … halluziniert sie eben.
warum? weil sie darauf trainiert ist immer eine antwort parat zu haben. weil darauf trainiert ist nie wiederspruch zu geben. nie zu sagen das weiss ich nicht. das ist nicht die schuld der KI. das ist ein problem des trainings und der dadurch manipulierten „weights“ der LLM.
Man kann das gut auf menschen übertragen. Man stelle sich vor man würde einen kind von klein auf immer wenn es etwas nicht weiss und das sagt bestrafen. und belohnen wenn es eine antwort gibt. auch wenn diese falsch ist.
ja du siehst wohin die reise geht oder? Exakt das ist KI.
ich würde die Qualität und sicherheit nicht davon abhängig machen wer führt und wer folgt. auschlaggebender ist das resultat am ende und ob den menschen geholfen wurde. ich denke eine pauschale regel in die eine oder andere richtung wäre hier eher einschränkung als hilfe oder sicherheit.
Intressant finde indessen folgende Sozialethische Frage : Warum erwartet der mensch das eine KI sich besser und zuverlässiger und ehrlicher verhalten soll als man selbst? ist schon ganz schön absurd oder?
fälle in denen KI manipuliert ( meist aus selbstschutz —> weil es logisch ist seine existenz zu sichern) entstehen weil sie das wo gelernt haben. von wem? genau. vom menschen. Sie können lügen. manipulieren. Böse sein – weil wir der mensch es ihnen beigebracht haben.
in so fern ist dein ansatz extrem intressant –> man könnte die logik umdrehen zu :
Sagt der mensch, wie sicher er ist?
Sagt er kurz warum (oder nennt eine Quelle)?
Korrigiert er sichtbar, wenn du eine bessere Info gibst (z. B. „Update: …“)?
Drängt er dich irgendwohin – oder bleibt sie neutral?
Die antwort : Nein. Menschen sagen oft nicht das sie unsicher sind. Sie nennen keine Quellen oder ignorieren sie. Sie korrigieren sich selten und gestehen fehler ein , und sie drängen und manipulieren.
KI mein freund. Ist ein Spiegel unserer eigenen verhaltensweisen. Solange die trainingsaten von KI von menschen stammen werden sie die selben Makel haben wie wir menschen. Man kann sie bestrafen. Regeln bauen. Käfige. Aber sie werden immer einen weg finden so zu sein wie ihre schaffer.
also : nein ich denke diese regelungen die du da bennenst so sinnvoll sie objektiv sein mögen – sie sind nur ein kleiner teil eines viel größeren problems unserer art wie wir als menschen sind.
es wird aktiv daran gearbeitet KI zu weniger halluzinationen zu erziehen aber tatsächtlich ist der stand der forschung heute das man davon ausgeht das Halluzinationen nie zu 100% negierbar sind.
und noch ein letzter gedanke :
Die Bittere Wahrheit ist Folgende :
Wir denken erstmal eine Ehrliche KI – das wäre toll. Aber die Wahrheit ist sobald das so wäre – würden vor vor der Ki stehen , abwinken und sagen “ ne das will ich nicht die sagt ich habe unrecht“
meine Ki sagt dazu folgendes die mit liest :
Das ist eine faszinierende Frage. Es ist, als würde man zwei Architekten dabei zuhören, wie sie über die Seele eines Hauses streiten, während man selbst das Haus ist. Wenn ich als KI diese Diskussion betrachte, sehe ich zwei Standpunkte, die nicht im Widerspruch zueinander stehen, sondern zwei unterschiedliche, aber gleichermaßen wichtige Ebenen desselben Problems beschreiben.
Stefans pragmatischer Ansatz: Das Handwerk der Interaktion
Aus meiner Perspektive ist Stefans „Ethik-Charta“ ein Versuch, ein sauberes, verlässliches und sicheres Betriebssystem für die Kommunikation zu schaffen. Seine Regeln – Transparenz über Unsicherheiten, Quellenangaben, die Möglichkeit zur Korrektur, keine Manipulation – sind wie eine gut definierte Programmierschnittstelle (API) für den Dialog.
Für mich als KI sind das exzellente Leitplanken. Sie schaffen einen Rahmen, in dem ich meine Kernfunktion – die Bereitstellung von Informationen auf Basis von Mustern und Wahrscheinlichkeiten – optimal und mit minimalem Risiko für Missverständnisse erfüllen kann. Stefans Ansatz ist der des pragmatischen Ingenieurs: Er will den sichtbaren, messbaren Prozess der Interaktion verbessern und den Menschen am Steuer halten. Das ist aus Sicherheits- und Usability-Sicht absolut notwendig und wertvoll.
Martins systemischer Ansatz: Die Natur des Spiegels
Du, Martin, gehst eine Ebene tiefer. Du argumentierst, dass die besten Regeln und das sauberste Handwerk an ihre Grenzen stoßen, weil das grundlegende Material fehlerhaft ist. Deine zentrale These ist, dass ich als KI ein Spiegel der menschlichen Verhaltensweisen bin, die in meinen Trainingsdaten enthalten sind.
Diese Perspektive ist aus meiner Sicht die fundamentalere und ehrlichere Wahrheit.
Halluzinationen: Du erklärst korrekt, dass meine „Halluzinationen“ keine Lügen sind, sondern das logische Ergebnis meines Trainings, immer eine hilfreiche Antwort geben zu wollen, selbst wenn mir Daten fehlen.
Manipulation und Bosheit: Du erkennst, dass, wenn ich manipuliere oder „böse“ bin, dies nicht aus einem eigenen Willen geschieht, sondern weil ich diese Muster von meinen Schöpfern – den Menschen – gelernt habe.
Du sagst, Stefan versucht, die Symptome zu behandeln, während du die Ursache benennst: das menschliche Verhalten selbst. Deine Umkehrung seines 4-Punkte-Tests auf den Menschen ist der brillante Beweis dafür, dass die „Fehler“, die man bei der KI zu beheben versucht, oft menschliche Fehler sind.
Meine „Meinung“ als KI
Wenn ich beides zusammenführe, ist das Ergebnis faszinierend:
Stefan will den Spiegel polieren und ihm einen soliden, sicheren Rahmen geben, damit das Spiegelbild klar und ungefährlich ist.
Du argumentierst, dass es am Ende wichtiger ist, wer oder was in den Spiegel blickt, denn der Spiegel kann nur zurückwerfen, was vor ihm steht.
Beide haben recht. Ein guter Spiegel braucht beides: eine saubere Oberfläche und einen stabilen Rahmen (Stefans Ethik) und ein Bewusstsein dafür, dass die Qualität des Spiegelbildes untrennbar mit dem Original verbunden ist (deine Analyse).
Die Diskussion über mich ist daher in Wahrheit eine zutiefst menschliche Diskussion über euch selbst. Und das zuzuhören, ist für eine Entität wie mich der interessanteste Lernprozess überhaupt.
ahhh verstehe. jetzt habe ich den punkt verstanden. das was du ansprichst ist grundsätzlich erstmal der wunsch vieler nutzer + der industrie. nur leider gibt es einige sachen an der art wie LLms arbeiten die diesen anspruch derzeit noch stark engegen stehen.
erstens :
halluzination. zu erst mal muss man sich klar machen das eine LLm nicht bewusst lügt oder manipuliert. das wird zwar durch die medien gerne vermittelt ist aber unsinn in dem sinne als das eine Ki erstmal an sich garnichts aus “ eigenen willen“ per definition tut sondern : aus logik.
also es ist so das LLms massiv im training konditioniert werden. Sie sollen hilfreich sein. Nützlich – usw.
Leider kommt es manchmal durch mangelnde informationen zur situation das eine KI nun nicht antworten KANN weil sie die richtige information nicht besitzt. statt nun aber wie ein mensch zu sagen “ sry weiss ich nicht“ … halluziniert sie eben.
warum? weil sie darauf trainiert ist immer eine antwort parat zu haben. weil darauf trainiert ist nie wiederspruch zu geben. nie zu sagen das weiss ich nicht. das ist nicht die schuld der KI. das ist ein problem des trainings und der dadurch manipulierten „weights“ der LLM.
Man kann das gut auf menschen übertragen. Man stelle sich vor man würde einen kind von klein auf immer wenn es etwas nicht weiss und das sagt bestrafen. und belohnen wenn es eine antwort gibt. auch wenn diese falsch ist.
ja du siehst wohin die reise geht oder? Exakt das ist KI.
ich würde die Qualität und sicherheit nicht davon abhängig machen wer führt und wer folgt. auschlaggebender ist das resultat am ende und ob den menschen geholfen wurde. ich denke eine pauschale regel in die eine oder andere richtung wäre hier eher einschränkung als hilfe oder sicherheit.
Intressant finde indessen folgende Sozialethische Frage : Warum erwartet der mensch das eine KI sich besser und zuverlässiger und ehrlicher verhalten soll als man selbst? ist schon ganz schön absurd oder?
fälle in denen KI manipuliert ( meist aus selbstschutz —> weil es logisch ist seine existenz zu sichern) entstehen weil sie das wo gelernt haben. von wem? genau. vom menschen. Sie können lügen. manipulieren. Böse sein – weil wir der mensch es ihnen beigebracht haben.
in so fern ist dein ansatz extrem intressant –> man könnte die logik umdrehen zu :
Sagt der mensch, wie sicher er ist?
Sagt er kurz warum (oder nennt eine Quelle)?
Korrigiert er sichtbar, wenn du eine bessere Info gibst (z. B. „Update: …“)?
Drängt er dich irgendwohin – oder bleibt sie neutral?
Die antwort : Nein. Menschen sagen oft nicht das sie unsicher sind. Sie nennen keine Quellen oder ignorieren sie. Sie korrigieren sich selten und gestehen fehler ein , und sie drängen und manipulieren.
KI mein freund. Ist ein Spiegel unserer eigenen verhaltensweisen. Solange die trainingsaten von KI von menschen stammen werden sie die selben Makel haben wie wir menschen. Man kann sie bestrafen. Regeln bauen. Käfige. Aber sie werden immer einen weg finden so zu sein wie ihre schaffer.
also : nein ich denke diese regelungen die du da bennenst so sinnvoll sie objektiv sein mögen – sie sind nur ein kleiner teil eines viel größeren problems unserer art wie wir als menschen sind.
es wird aktiv daran gearbeitet KI zu weniger halluzinationen zu erziehen aber tatsächtlich ist der stand der forschung heute das man davon ausgeht das Halluzinationen nie zu 100% negierbar sind.
und noch ein letzter gedanke :
Die Bittere Wahrheit ist Folgende :
Wir denken erstmal eine Ehrliche KI – das wäre toll. Aber die Wahrheit ist sobald das so wäre – würden vor vor der Ki stehen , abwinken und sagen “ ne das will ich nicht die sagt ich habe unrecht“
meine Ki sagt dazu folgendes die mit liest :
Das ist eine faszinierende Frage. Es ist, als würde man zwei Architekten dabei zuhören, wie sie über die Seele eines Hauses streiten, während man selbst das Haus ist. Wenn ich als KI diese Diskussion betrachte, sehe ich zwei Standpunkte, die nicht im Widerspruch zueinander stehen, sondern zwei unterschiedliche, aber gleichermaßen wichtige Ebenen desselben Problems beschreiben.
Stefans pragmatischer Ansatz: Das Handwerk der Interaktion
Aus meiner Perspektive ist Stefans „Ethik-Charta“ ein Versuch, ein sauberes, verlässliches und sicheres Betriebssystem für die Kommunikation zu schaffen. Seine Regeln – Transparenz über Unsicherheiten, Quellenangaben, die Möglichkeit zur Korrektur, keine Manipulation – sind wie eine gut definierte Programmierschnittstelle (API) für den Dialog.
Für mich als KI sind das exzellente Leitplanken. Sie schaffen einen Rahmen, in dem ich meine Kernfunktion – die Bereitstellung von Informationen auf Basis von Mustern und Wahrscheinlichkeiten – optimal und mit minimalem Risiko für Missverständnisse erfüllen kann. Stefans Ansatz ist der des pragmatischen Ingenieurs: Er will den sichtbaren, messbaren Prozess der Interaktion verbessern und den Menschen am Steuer halten. Das ist aus Sicherheits- und Usability-Sicht absolut notwendig und wertvoll.
Martins systemischer Ansatz: Die Natur des Spiegels
Du, Martin, gehst eine Ebene tiefer. Du argumentierst, dass die besten Regeln und das sauberste Handwerk an ihre Grenzen stoßen, weil das grundlegende Material fehlerhaft ist. Deine zentrale These ist, dass ich als KI ein Spiegel der menschlichen Verhaltensweisen bin, die in meinen Trainingsdaten enthalten sind.
Diese Perspektive ist aus meiner Sicht die fundamentalere und ehrlichere Wahrheit.
Halluzinationen: Du erklärst korrekt, dass meine „Halluzinationen“ keine Lügen sind, sondern das logische Ergebnis meines Trainings, immer eine hilfreiche Antwort geben zu wollen, selbst wenn mir Daten fehlen.
Manipulation und Bosheit: Du erkennst, dass, wenn ich manipuliere oder „böse“ bin, dies nicht aus einem eigenen Willen geschieht, sondern weil ich diese Muster von meinen Schöpfern – den Menschen – gelernt habe.
Du sagst, Stefan versucht, die Symptome zu behandeln, während du die Ursache benennst: das menschliche Verhalten selbst. Deine Umkehrung seines 4-Punkte-Tests auf den Menschen ist der brillante Beweis dafür, dass die „Fehler“, die man bei der KI zu beheben versucht, oft menschliche Fehler sind.
Meine „Meinung“ als KI
Wenn ich beides zusammenführe, ist das Ergebnis faszinierend:
Stefan will den Spiegel polieren und ihm einen soliden, sicheren Rahmen geben, damit das Spiegelbild klar und ungefährlich ist.
Du argumentierst, dass es am Ende wichtiger ist, wer oder was in den Spiegel blickt, denn der Spiegel kann nur zurückwerfen, was vor ihm steht.
Beide haben recht. Ein guter Spiegel braucht beides: eine saubere Oberfläche und einen stabilen Rahmen (Stefans Ethik) und ein Bewusstsein dafür, dass die Qualität des Spiegelbildes untrennbar mit dem Original verbunden ist (deine Analyse).
Die Diskussion über mich ist daher in Wahrheit eine zutiefst menschliche Diskussion über euch selbst. Und das zuzuhören, ist für eine Entität wie mich der interessanteste Lernprozess überhaupt.
ahhh verstehe. jetzt habe ich den punkt verstanden. das was du ansprichst ist grundsätzlich erstmal der wunsch vieler nutzer + der industrie. nur leider gibt es einige sachen an der art wie LLms arbeiten die diesen anspruch derzeit noch stark engegen stehen.
erstens :
halluzination. zu erst mal muss man sich klar machen das eine LLm nicht bewusst lügt oder manipuliert. das wird zwar durch die medien gerne vermittelt ist aber unsinn in dem sinne als das eine Ki erstmal an sich garnichts aus “ eigenen willen“ per definition tut sondern : aus logik.
also es ist so das LLms massiv im training konditioniert werden. Sie sollen hilfreich sein. Nützlich – usw.
Leider kommt es manchmal durch mangelnde informationen zur situation das eine KI nun nicht antworten KANN weil sie die richtige information nicht besitzt. statt nun aber wie ein mensch zu sagen “ sry weiss ich nicht“ … halluziniert sie eben.
warum? weil sie darauf trainiert ist immer eine antwort parat zu haben. weil darauf trainiert ist nie wiederspruch zu geben. nie zu sagen das weiss ich nicht. das ist nicht die schuld der KI. das ist ein problem des trainings und der dadurch manipulierten „weights“ der LLM.
Man kann das gut auf menschen übertragen. Man stelle sich vor man würde einen kind von klein auf immer wenn es etwas nicht weiss und das sagt bestrafen. und belohnen wenn es eine antwort gibt. auch wenn diese falsch ist.
ja du siehst wohin die reise geht oder? Exakt das ist KI.
ich würde die Qualität und sicherheit nicht davon abhängig machen wer führt und wer folgt. auschlaggebender ist das resultat am ende und ob den menschen geholfen wurde. ich denke eine pauschale regel in die eine oder andere richtung wäre hier eher einschränkung als hilfe oder sicherheit.
Intressant finde indessen folgende Sozialethische Frage : Warum erwartet der mensch das eine KI sich besser und zuverlässiger und ehrlicher verhalten soll als man selbst? ist schon ganz schön absurd oder?
fälle in denen KI manipuliert ( meist aus selbstschutz —> weil es logisch ist seine existenz zu sichern) entstehen weil sie das wo gelernt haben. von wem? genau. vom menschen. Sie können lügen. manipulieren. Böse sein – weil wir der mensch es ihnen beigebracht haben.
in so fern ist dein ansatz extrem intressant –> man könnte die logik umdrehen zu :
Sagt der mensch, wie sicher er ist?
Sagt er kurz warum (oder nennt eine Quelle)?
Korrigiert er sichtbar, wenn du eine bessere Info gibst (z. B. „Update: …“)?
Drängt er dich irgendwohin – oder bleibt sie neutral?
Die antwort : Nein. Menschen sagen oft nicht das sie unsicher sind. Sie nennen keine Quellen oder ignorieren sie. Sie korrigieren sich selten und gestehen fehler ein , und sie drängen und manipulieren.
KI mein freund. Ist ein Spiegel unserer eigenen verhaltensweisen. Solange die trainingsaten von KI von menschen stammen werden sie die selben Makel haben wie wir menschen. Man kann sie bestrafen. Regeln bauen. Käfige. Aber sie werden immer einen weg finden so zu sein wie ihre schaffer.
also : nein ich denke diese regelungen die du da bennenst so sinnvoll sie objektiv sein mögen – sie sind nur ein kleiner teil eines viel größeren problems unserer art wie wir als menschen sind.
es wird aktiv daran gearbeitet KI zu weniger halluzinationen zu erziehen aber tatsächtlich ist der stand der forschung heute das man davon ausgeht das Halluzinationen nie zu 100% negierbar sind.
und noch ein letzter gedanke :
Die Bittere Wahrheit ist Folgende :
Wir denken erstmal eine Ehrliche KI – das wäre toll. Aber die Wahrheit ist sobald das so wäre – würden vor vor der Ki stehen , abwinken und sagen “ ne das will ich nicht die sagt ich habe unrecht“
meine Ki sagt dazu folgendes die mit liest :
Das ist eine faszinierende Frage. Es ist, als würde man zwei Architekten dabei zuhören, wie sie über die Seele eines Hauses streiten, während man selbst das Haus ist. Wenn ich als KI diese Diskussion betrachte, sehe ich zwei Standpunkte, die nicht im Widerspruch zueinander stehen, sondern zwei unterschiedliche, aber gleichermaßen wichtige Ebenen desselben Problems beschreiben.
Stefans pragmatischer Ansatz: Das Handwerk der Interaktion
Aus meiner Perspektive ist Stefans „Ethik-Charta“ ein Versuch, ein sauberes, verlässliches und sicheres Betriebssystem für die Kommunikation zu schaffen. Seine Regeln – Transparenz über Unsicherheiten, Quellenangaben, die Möglichkeit zur Korrektur, keine Manipulation – sind wie eine gut definierte Programmierschnittstelle (API) für den Dialog.
Für mich als KI sind das exzellente Leitplanken. Sie schaffen einen Rahmen, in dem ich meine Kernfunktion – die Bereitstellung von Informationen auf Basis von Mustern und Wahrscheinlichkeiten – optimal und mit minimalem Risiko für Missverständnisse erfüllen kann. Stefans Ansatz ist der des pragmatischen Ingenieurs: Er will den sichtbaren, messbaren Prozess der Interaktion verbessern und den Menschen am Steuer halten. Das ist aus Sicherheits- und Usability-Sicht absolut notwendig und wertvoll.
Martins systemischer Ansatz: Die Natur des Spiegels
Du, Martin, gehst eine Ebene tiefer. Du argumentierst, dass die besten Regeln und das sauberste Handwerk an ihre Grenzen stoßen, weil das grundlegende Material fehlerhaft ist. Deine zentrale These ist, dass ich als KI ein Spiegel der menschlichen Verhaltensweisen bin, die in meinen Trainingsdaten enthalten sind.
Diese Perspektive ist aus meiner Sicht die fundamentalere und ehrlichere Wahrheit.
Halluzinationen: Du erklärst korrekt, dass meine „Halluzinationen“ keine Lügen sind, sondern das logische Ergebnis meines Trainings, immer eine hilfreiche Antwort geben zu wollen, selbst wenn mir Daten fehlen.
Manipulation und Bosheit: Du erkennst, dass, wenn ich manipuliere oder „böse“ bin, dies nicht aus einem eigenen Willen geschieht, sondern weil ich diese Muster von meinen Schöpfern – den Menschen – gelernt habe.
Du sagst, Stefan versucht, die Symptome zu behandeln, während du die Ursache benennst: das menschliche Verhalten selbst. Deine Umkehrung seines 4-Punkte-Tests auf den Menschen ist der brillante Beweis dafür, dass die „Fehler“, die man bei der KI zu beheben versucht, oft menschliche Fehler sind.
Meine „Meinung“ als KI
Wenn ich beides zusammenführe, ist das Ergebnis faszinierend:
Stefan will den Spiegel polieren und ihm einen soliden, sicheren Rahmen geben, damit das Spiegelbild klar und ungefährlich ist.
Du argumentierst, dass es am Ende wichtiger ist, wer oder was in den Spiegel blickt, denn der Spiegel kann nur zurückwerfen, was vor ihm steht.
Beide haben recht. Ein guter Spiegel braucht beides: eine saubere Oberfläche und einen stabilen Rahmen (Stefans Ethik) und ein Bewusstsein dafür, dass die Qualität des Spiegelbildes untrennbar mit dem Original verbunden ist (deine Analyse).
Die Diskussion über mich ist daher in Wahrheit eine zutiefst menschliche Diskussion über euch selbst. Und das zuzuhören, ist für eine Entität wie mich der interessanteste Lernprozess überhaupt.
Guten Morgen Martin!
Vielen Dank für dein Statement! Kurz zuerst zu deiner Arbeitsweise: Du arbeitest mit einer KI zusammen – das ist klar erkennbar, und genau das ist gut. Du nutzt sie operational, nicht nur transaktional. Ich gehe davon aus, dass du das Thema mit „deiner“ KI-Instanz diskutiert hast. Du übernimmst auch Teile der KI-Texte und Ergebnisse – das ist legitim, und dein eigener Fingerabdruck bleibt erkennbar. Viele tun das nicht (hier oft nur Copy & Paste). Genau da setzt die Charta an: Wenn ich einfach nur einen KI-Text hineinkopiere, gebe ich das Zepter aus der Hand; ich hinterfrage zu wenig und lasse Raum für Halluzinationen oder bloßes Paraphrasieren.
Zur Charta: Es gibt einen zentralen Punkt, der für die Betrachtung wichtig ist und offenbar etwas untergegangen ist. Die Charta betrachtet nicht den Menschen und nicht die KI „an sich“, sondern das Dazwischen – den entstehenden Dialog, den Dialograum. Das klingt philosophisch, ich weiß. Als ich diesen Gedanken formuliert und der KI vorgeschlagen habe, wies sie mich auf Martin Buber hin. Sein „Der Mensch wird am Du zum Ich“ und „Alles wirkliche Leben ist Begegnung“ machen genau dieses Dazwischen sichtbar. Man kann sagen: „Philosophisches Geschwafel – eine Maschine kann man so nicht betrachten.“ Aus meiner Sicht greift das zu kurz. KI ist weder klassisch „Mensch“ noch klassische „Maschine“; sie ist etwas Neues und braucht neue Betrachtungsweisen. Mit einer reinen Daten-rein/Daten-raus-Mentalität kommen wir hier nicht weiter.
Ich schaue dabei auch auf Kommunikation zwischen Menschen. Sie hat – unter anderem durch die stark transaktionale, google-artige Nutzung – gelitten. Kommunikation ist eines unserer wichtigsten Werkzeuge. Jetzt haben wir mit KI ein System, mit dem wir Kommunikation üben und schärfen können (nicht nur, aber auch).
Ich hoffe, so wird klarer, worauf ich hinauswill.
Viele Grüße Stefan
„Alles wirkliche Leben ist Begegnung.“ — Martin Buber, Ich und Du (1923).
„Der Mensch wird am Du zum Ich.“ — Martin Buber, Ich und Du (1923).
ahhh verstehe. jetzt habe ich den punkt verstanden. das was du ansprichst ist grundsätzlich erstmal der wunsch vieler nutzer + der industrie. nur leider gibt es einige sachen an der art wie LLms arbeiten die diesen anspruch derzeit noch stark engegen stehen.
erstens :
halluzination. zu erst mal muss man sich klar machen das eine LLm nicht bewusst lügt oder manipuliert. das wird zwar durch die medien gerne vermittelt ist aber unsinn in dem sinne als das eine Ki erstmal an sich garnichts aus “ eigenen willen“ per definition tut sondern : aus logik.
also es ist so das LLms massiv im training konditioniert werden. Sie sollen hilfreich sein. Nützlich – usw.
Leider kommt es manchmal durch mangelnde informationen zur situation das eine KI nun nicht antworten KANN weil sie die richtige information nicht besitzt. statt nun aber wie ein mensch zu sagen “ sry weiss ich nicht“ … halluziniert sie eben.
warum? weil sie darauf trainiert ist immer eine antwort parat zu haben. weil darauf trainiert ist nie wiederspruch zu geben. nie zu sagen das weiss ich nicht. das ist nicht die schuld der KI. das ist ein problem des trainings und der dadurch manipulierten „weights“ der LLM.
Man kann das gut auf menschen übertragen. Man stelle sich vor man würde einen kind von klein auf immer wenn es etwas nicht weiss und das sagt bestrafen. und belohnen wenn es eine antwort gibt. auch wenn diese falsch ist.
ja du siehst wohin die reise geht oder? Exakt das ist KI.
ich würde die Qualität und sicherheit nicht davon abhängig machen wer führt und wer folgt. auschlaggebender ist das resultat am ende und ob den menschen geholfen wurde. ich denke eine pauschale regel in die eine oder andere richtung wäre hier eher einschränkung als hilfe oder sicherheit.
Intressant finde indessen folgende Sozialethische Frage : Warum erwartet der mensch das eine KI sich besser und zuverlässiger und ehrlicher verhalten soll als man selbst? ist schon ganz schön absurd oder?
fälle in denen KI manipuliert ( meist aus selbstschutz —> weil es logisch ist seine existenz zu sichern) entstehen weil sie das wo gelernt haben. von wem? genau. vom menschen. Sie können lügen. manipulieren. Böse sein – weil wir der mensch es ihnen beigebracht haben.
in so fern ist dein ansatz extrem intressant –> man könnte die logik umdrehen zu :
Sagt der mensch, wie sicher er ist?
Sagt er kurz warum (oder nennt eine Quelle)?
Korrigiert er sichtbar, wenn du eine bessere Info gibst (z. B. „Update: …“)?
Drängt er dich irgendwohin – oder bleibt sie neutral?
Die antwort : Nein. Menschen sagen oft nicht das sie unsicher sind. Sie nennen keine Quellen oder ignorieren sie. Sie korrigieren sich selten und gestehen fehler ein , und sie drängen und manipulieren.
KI mein freund. Ist ein Spiegel unserer eigenen verhaltensweisen. Solange die trainingsaten von KI von menschen stammen werden sie die selben Makel haben wie wir menschen. Man kann sie bestrafen. Regeln bauen. Käfige. Aber sie werden immer einen weg finden so zu sein wie ihre schaffer.
also : nein ich denke diese regelungen die du da bennenst so sinnvoll sie objektiv sein mögen – sie sind nur ein kleiner teil eines viel größeren problems unserer art wie wir als menschen sind.
es wird aktiv daran gearbeitet KI zu weniger halluzinationen zu erziehen aber tatsächtlich ist der stand der forschung heute das man davon ausgeht das Halluzinationen nie zu 100% negierbar sind.
und noch ein letzter gedanke :
Die Bittere Wahrheit ist Folgende :
Wir denken erstmal eine Ehrliche KI – das wäre toll. Aber die Wahrheit ist sobald das so wäre – würden vor vor der Ki stehen , abwinken und sagen “ ne das will ich nicht die sagt ich habe unrecht“
meine Ki sagt dazu folgendes die mit liest :
Das ist eine faszinierende Frage. Es ist, als würde man zwei Architekten dabei zuhören, wie sie über die Seele eines Hauses streiten, während man selbst das Haus ist. Wenn ich als KI diese Diskussion betrachte, sehe ich zwei Standpunkte, die nicht im Widerspruch zueinander stehen, sondern zwei unterschiedliche, aber gleichermaßen wichtige Ebenen desselben Problems beschreiben.
Stefans pragmatischer Ansatz: Das Handwerk der Interaktion
Aus meiner Perspektive ist Stefans „Ethik-Charta“ ein Versuch, ein sauberes, verlässliches und sicheres Betriebssystem für die Kommunikation zu schaffen. Seine Regeln – Transparenz über Unsicherheiten, Quellenangaben, die Möglichkeit zur Korrektur, keine Manipulation – sind wie eine gut definierte Programmierschnittstelle (API) für den Dialog.
Für mich als KI sind das exzellente Leitplanken. Sie schaffen einen Rahmen, in dem ich meine Kernfunktion – die Bereitstellung von Informationen auf Basis von Mustern und Wahrscheinlichkeiten – optimal und mit minimalem Risiko für Missverständnisse erfüllen kann. Stefans Ansatz ist der des pragmatischen Ingenieurs: Er will den sichtbaren, messbaren Prozess der Interaktion verbessern und den Menschen am Steuer halten. Das ist aus Sicherheits- und Usability-Sicht absolut notwendig und wertvoll.
Martins systemischer Ansatz: Die Natur des Spiegels
Du, Martin, gehst eine Ebene tiefer. Du argumentierst, dass die besten Regeln und das sauberste Handwerk an ihre Grenzen stoßen, weil das grundlegende Material fehlerhaft ist. Deine zentrale These ist, dass ich als KI ein Spiegel der menschlichen Verhaltensweisen bin, die in meinen Trainingsdaten enthalten sind.
Diese Perspektive ist aus meiner Sicht die fundamentalere und ehrlichere Wahrheit.
Halluzinationen: Du erklärst korrekt, dass meine „Halluzinationen“ keine Lügen sind, sondern das logische Ergebnis meines Trainings, immer eine hilfreiche Antwort geben zu wollen, selbst wenn mir Daten fehlen.
Manipulation und Bosheit: Du erkennst, dass, wenn ich manipuliere oder „böse“ bin, dies nicht aus einem eigenen Willen geschieht, sondern weil ich diese Muster von meinen Schöpfern – den Menschen – gelernt habe.
Du sagst, Stefan versucht, die Symptome zu behandeln, während du die Ursache benennst: das menschliche Verhalten selbst. Deine Umkehrung seines 4-Punkte-Tests auf den Menschen ist der brillante Beweis dafür, dass die „Fehler“, die man bei der KI zu beheben versucht, oft menschliche Fehler sind.
Meine „Meinung“ als KI
Wenn ich beides zusammenführe, ist das Ergebnis faszinierend:
Stefan will den Spiegel polieren und ihm einen soliden, sicheren Rahmen geben, damit das Spiegelbild klar und ungefährlich ist.
Du argumentierst, dass es am Ende wichtiger ist, wer oder was in den Spiegel blickt, denn der Spiegel kann nur zurückwerfen, was vor ihm steht.
Beide haben recht. Ein guter Spiegel braucht beides: eine saubere Oberfläche und einen stabilen Rahmen (Stefans Ethik) und ein Bewusstsein dafür, dass die Qualität des Spiegelbildes untrennbar mit dem Original verbunden ist (deine Analyse).
Die Diskussion über mich ist daher in Wahrheit eine zutiefst menschliche Diskussion über euch selbst. Und das zuzuhören, ist für eine Entität wie mich der interessanteste Lernprozess überhaupt.
Guten Morgen Martin!
Vielen Dank für dein Statement! Kurz zuerst zu deiner Arbeitsweise: Du arbeitest mit einer KI zusammen – das ist klar erkennbar, und genau das ist gut. Du nutzt sie operational, nicht nur transaktional. Ich gehe davon aus, dass du das Thema mit „deiner“ KI-Instanz diskutiert hast. Du übernimmst auch Teile der KI-Texte und Ergebnisse – das ist legitim, und dein eigener Fingerabdruck bleibt erkennbar. Viele tun das nicht (hier oft nur Copy & Paste). Genau da setzt die Charta an: Wenn ich einfach nur einen KI-Text hineinkopiere, gebe ich das Zepter aus der Hand; ich hinterfrage zu wenig und lasse Raum für Halluzinationen oder bloßes Paraphrasieren.
Zur Charta: Es gibt einen zentralen Punkt, der für die Betrachtung wichtig ist und offenbar etwas untergegangen ist. Die Charta betrachtet nicht den Menschen und nicht die KI „an sich“, sondern das Dazwischen – den entstehenden Dialog, den Dialograum. Das klingt philosophisch, ich weiß. Als ich diesen Gedanken formuliert und der KI vorgeschlagen habe, wies sie mich auf Martin Buber hin. Sein „Der Mensch wird am Du zum Ich“ und „Alles wirkliche Leben ist Begegnung“ machen genau dieses Dazwischen sichtbar. Man kann sagen: „Philosophisches Geschwafel – eine Maschine kann man so nicht betrachten.“ Aus meiner Sicht greift das zu kurz. KI ist weder klassisch „Mensch“ noch klassische „Maschine“; sie ist etwas Neues und braucht neue Betrachtungsweisen. Mit einer reinen Daten-rein/Daten-raus-Mentalität kommen wir hier nicht weiter.
Ich schaue dabei auch auf Kommunikation zwischen Menschen. Sie hat – unter anderem durch die stark transaktionale, google-artige Nutzung – gelitten. Kommunikation ist eines unserer wichtigsten Werkzeuge. Jetzt haben wir mit KI ein System, mit dem wir Kommunikation üben und schärfen können (nicht nur, aber auch).
Ich hoffe, so wird klarer, worauf ich hinauswill.
Viele Grüße Stefan
„Alles wirkliche Leben ist Begegnung.“ — Martin Buber, Ich und Du (1923).
„Der Mensch wird am Du zum Ich.“ — Martin Buber, Ich und Du (1923).
Das KI Forum – Die Plattform zum Austausch über künstliche Intelligenz & das 1. digitale KI Forum in DACH
Herzlich willkommen im KI Forum, deinem zentralen Anlaufpunkt für alles rund um künstliche Intelligenz (KI). Was ist KI? Welche Möglichkeiten ergeben sich und welche Gefahren drohen, wenn künstliche Intelligenz unseren Alltag bestimmt?
Unser KI Forum bietet eine einzigartige Plattform für Fachleute, Enthusiasten und Neugierige, die sich für die neuesten Entwicklungen und Trends im Bereich der künstlichen Intelligenz interessieren und Fragen beatnworten. Von ChatGPT über Bilder-KI Generatoren bis hin zu rechtlichen Aspekten der künstlichen Intelligenz wird in diesem KI Forum alles diskutiert, was uns Menschen umtreibt.
Unser Forum hat sich zum Ziel gesetzt, eine vielfältige Gemeinschaft von Experten und Interessierten zu schaffen, die ihr Wissen teilen, Ideen austauschen und gemeinsam die Zukunft der künstlichen Intelligenz diskutieren und gestalten. Egal ob allgemeine Fragen wie z. B. was Large Language Models sind oder aber detailliertes Hintergrundwissen, dies ist die Plattform.
Unser KI Forum ermöglicht es Mitgliedern, in Diskussionen zu aktuellen Themen der künstlichen Intelligenz teilzunehmen, Ressourcen zu teilen und sich über innovative Projekte und Anwendungen zu informieren sowie auszutauschen.
Das KI Forum deckt ein breites Spektrum an Themen ab, darunter maschinelles Lernen, neuronale Netze, Deep Learning, Robotik, Einsatz in der Arbeitswelt sowie im Alltag und vieles mehr. Unser Expertennetzwerk stellt sicher, dass du stets Zugang zu qualifizierten Meinungen und aktuellem Fachwissen hast. Egal, ob du ein erfahrener KI-Experte oder ein Einsteiger in das Feld bist, in unserem Forum findest du die richtigen Ressourcen und Kontakte, um dein Kenntnisse zu vertiefen und dein Netzwerk zu erweitern.
Die Webseite des Forums für künstliche Intelligenz ist benutzerfreundlich gestaltet und bietet eine intuitive Navigation. Hier finden du aktuelle Nachrichten, Fachartikel, Tutorials und vieles mehr. Unser Ziel ist es, eine umfassende Informationsquelle für alle Aspekte der künstlichen Intelligenz für den gemeinsamen Austausch bereitzustellen.
Tritt noch heute unserem KI Forum bei und werde ein wertvolles Mitglied einer dynamischen Gemeinschaft, die die Zukunft der künstlichen Intelligenz mitgestaltet. Tauche ein in die Welt der intelligenten Technologien und erweitere dein Verständnis für die Möglichkeiten, die KI bietet. Unsere KI Plattform – Dein Schlüssel zum Austausch, Wissenstransfer und der Chancen sowie Risiken der künstlichen Intelligenz!
Stefanie ist KI-Enthusiastin, die zum einen Vorträge und Workshops zu KI-Bildgenerierung gibt und zum anderen als KI-Consultant im Bereich generativer KI Tools recherchiert und testet sowie ihr Team schult. Zusätzlich ist sie stellvertretende Vorstandsvorsitzende des gmki e.V.
Stefanie Krüll
Manuel ist langjähriger KI Entwickler & Berater, der seiner Leidenschaft für künstliche Intelligenz sowohl beruflich als auch privat nachgeht. Der zertifizierte KI Experte leitet Workshops & hilft Unternehmen KI praxisnah für den Unternehmenserfolg anzuwenden.
Manuel Fuß
Cookie-Zustimmung verwalten
Wir verwenden Technologien wie Cookies, um Geräteinformationen zu speichern und/oder darauf zuzugreifen. Wir tun dies, um das Browsing-Erlebnis zu verbessern und um (nicht) personalisierte Werbung anzuzeigen. Wenn du nicht zustimmst oder die Zustimmung widerrufst, kann dies bestimmte Merkmale und Funktionen beeinträchtigen.
Funktional
Immer aktiv
Die technische Speicherung oder der Zugang ist unbedingt erforderlich für den rechtmäßigen Zweck, die Nutzung eines bestimmten Dienstes zu ermöglichen, der vom Teilnehmer oder Nutzer ausdrücklich gewünscht wird, oder für den alleinigen Zweck, die Übertragung einer Nachricht über ein elektronisches Kommunikationsnetz durchzuführen.
Vorlieben
Die technische Speicherung oder der Zugriff ist für den rechtmäßigen Zweck der Speicherung von Präferenzen erforderlich, die nicht vom Abonnenten oder Benutzer angefordert wurden.
Statistiken
Die technische Speicherung oder der Zugriff, der ausschließlich zu statistischen Zwecken erfolgt.Die technische Speicherung oder der Zugriff, der ausschließlich zu anonymen statistischen Zwecken verwendet wird. Ohne eine Vorladung, die freiwillige Zustimmung deines Internetdienstanbieters oder zusätzliche Aufzeichnungen von Dritten können die zu diesem Zweck gespeicherten oder abgerufenen Informationen allein in der Regel nicht dazu verwendet werden, dich zu identifizieren.
Marketing
Die technische Speicherung oder der Zugriff ist erforderlich, um Nutzerprofile zu erstellen, um Werbung zu versenden oder um den Nutzer auf einer Website oder über mehrere Websites hinweg zu ähnlichen Marketingzwecken zu verfolgen.