Um mitzumachen, melde dich bitte an.
  • Künstliche Intelligenz (KI) und ihre Folgen

    Diskussion · 93 Beiträge · 5 Gefällt mir · 751 Aufrufe

    KI (auch AI - Artificial Intelligence) ist ein komplexes Themenfeld, dessen Auswirkungen nicht nur für die technische Community relevant sind, sondern für Wirtschaft, Gesellschaft, Politik und nicht zuletzt den Fortbestand der Zivilisation. Das Tempo der Entwicklung ist atemberaubend, um nicht zu sagen: halsbrecherisch. Nur wenige sind sich der Tragweite der Ereignisse bewusst, und dass uns als (noch) intelligenteste Spezies auf dem Planeten buchstäblich die Zeit davon läuft.

    Ich möchte mit euch eine offene Diskussion über die verschiedenen Aspekte von KI (und speziell die Bedrohung durch superintelligente KI) führen, und wie wir für mehr Bewusstsein hinsichtlich der aktuell sehr bedenklichen Entwicklungen sorgen können.

    Als Einstieg empfehle ich das Studium des AI 2027 Reports (https://ai-2027.com/).

    31.10.25, 10:42

Beiträge

  • 13.11.25, 15:29 - Zuletzt bearbeitet 13.11.25, 15:30.

     

    Mario:

    Bei deinem Messervergleich begibst du dich auf dünnes Eis. Deine Argumentation ähnelt verdächtig jener der NRA: "Nicht Waffen töten Menschen, sondern Menschen". Tatsächlich wissen wir, dass der leichte Zugang zu Waffen das impulsive Töten erst ermöglicht. Wer profitiert von dieser Argumentation? Die Hersteller der Waffen.8ou  

     

    ChatGPT ist keine Waffe und die Primäre funktion nicht das Töten. 

    Auch geht es bei dem Spruch spezifisch um Schusswaffen (guns). 

    Falls du das mit Messern als Beispiel nicht trennen kannst/willst dann ersetze es eben durch Säge oder ein beliebiges anderes Werkzeug, das du nicht als Waffe definierst. 

    Also kurz gesagt hast du das etwa aus dem Kontext meines Beispiels genommen.

     

    Beides ist und bleibt ein Werkzeug mit einer nützlichen funktion und beides wird erst bei falscher Nutzung problematisch. 

     

    Und mehr ist auch die jetzige AI nicht, auch wenn einige Leute da mehr reininterpretieren wollen, als die Technik hergibt. Ein Werkzeug, das auf Anfrage ausgibt, was man hören möchte. Und da liegt es eben am Nurzer, dies zu verstehen und nicht ein "Bewusstsein" zu erwarten. 

     

     

    Mario:

    IIch würde Hersteller von Stricken und Stühlen zur Rechenschaft ziehen, wenn sich herausstellen würde, dass Stricke und Stühle bewusst die geistige Gesundheit von Menschen beeinträchtigen (von Psychosen bis zu Selbstmorden), um einen wirtschaftlichen/strategischen Vorteil für die Hersteller zu erzielen.

     

     

    Ja super, denn AI macht "bewusst" erstmal gar nichts und besonders OpenAI versucht ja aktiv, das zu verhindern. Dann ist da ja auch kein Grund, irgendwas zur Rechenschaft zu ziehen. Der gewerbliche Vorteil ist natürlich Unsinn, tote Kunden bezahlen nicht mehr für Premium-Dienste :)

     

    Soweit kurzes Googlen mir verraten hat, gibt es noch zu keinem der Fälle ein Urteil - vorher kann man eh nur spekulieren.

  • 13.11.25, 09:31

     

    Mario:

     

    Jacky Cola:

     

     

     

     

    Also erstmal war meine Antwort natürlich nur auf diese Situation bezogen und davon weiche ich nicht ab. Wir müssen zu 100% die Eltern in Verantwortung ziehen, bis es sich herumgesprochen hat. Das gilt für Social Media genau so wie für AI und zuvor das Internet und zuvor Rockmusik.
    Zusätzlich am besten schon ab der Grundschule entsprechend Unterrichten. 


    Das heißt natürlich nicht, dass die Hersteller nicht auch gewisse Maßnahmen ergreifen und sich an Gesetze zu halten haben - ganz besonders beim Jugendschutz. Aber selbst hier sähe ich vor allem eine Pflicht zur Information bzw. Warnung und Jugendschutz-Systeme nach dem Stand der technischen Möglichkeiten. 
    Außerdem wird das alles "real" nur einen symbolischen Effekt haben. Alternativen in weniger regulierten Ländern oder gar völlig unkontrollierte, selbst gehostete Systeme, sind schon jetzt nur ein paar Klicks entfernt. 

    Ich sehe aber auch keinen Grund und keine Grundlage dafür, Unternehmen darüber hinaus zu bevormunden. Ein privates Unternehmen bietet einen Dienst an und man kann ihn freiwillig nutzen. Nutzt man ihn entgegen der Vernunft oder lässt seine Kinder daran spielen, ist es doch nicht mehr innerhalb der vorhergesehenen Nutzung. 
    Der Vergleich mit Messer-Herstellern, die nicht dafür verantwortlich sind, wo der Käufer sie hineinsteckt, erscheint nur auf den ersten Blick zu simpel. Selbst wenn wir hier das Internet erst 2013 entdeckt haben, sollte seine Existenz und Gefahr inzwischen genau so allgemein bekannt sein, wie die Spitze Seite am Messer. Der Zugrif auf AI ist ja erstmal nur eine weitere Sache, auf die man mit dem Internet Zugriff erlangt. 

    Bei deinem Messervergleich begibst du dich auf dünnes Eis. Deine Argumentation ähnelt verdächtig jener der NRA: "Nicht Waffen töten Menschen, sondern Menschen". Tatsächlich wissen wir, dass der leichte Zugang zu Waffen das impulsive Töten erst ermöglicht. Wer profitiert von dieser Argumentation? Die Hersteller der Waffen.

     

    Ich greife noch mal dein Strohmann-Argument (https://de.wikipedia.org/wiki/Strohmann-Argument) bez. eines Verbots von Stricken und Stühlen auf, da sie ja auch am Selbstmord des Jugendlichen beteiligt waren.

    Ich würde Hersteller von Stricken und Stühlen zur Rechenschaft ziehen, wenn sich herausstellen würde, dass Stricke und Stühle bewusst die geistige Gesundheit von Menschen beeinträchtigen (von Psychosen bis zu Selbstmorden), um einen wirtschaftlichen/strategischen Vorteil für die Hersteller zu erzielen.

     

    Die Gesellschaft zahlt einen Preis für dieses Verhalten. Damit sind wir wieder beim Motto vieler verantwortungsloser Unternehmen: "Risiken auf die Öffentlichkeit übertragen, Gewinne privatisieren."

     

    Du siehst also keinen Grund, Unternehmen zu bevormunden?

     

    Was wäre denn, deiner Meinung nach, ein realistischer Lösungsansatz? 

     

    Ich sehe es ebenso, dass es allen voran eine frühzeitige und umfassende Aufklärung über Gefahren und Risiken geben muss, schon beginnend im Grundschulalter, aber auch fortlaufend darüber hinaus. Das sind mitunter politische Entscheidungen, in welche Richtung sich die Bildung entwickeln soll und wie die Prioritäten zukünftig gesetzt werden.

     

    Die "Büchse der Pandora" wurde nun aber quasi geöffnet, das lässt sich nicht mehr rückgängig machen. Das Firmen in die Pflicht genommen werden, mögliche Gefahren zu beseitigen, steht ebenfalls außer Frage. Aber auch das sind politische Entscheidungen. 

  • 13.11.25, 06:15

     

    Jacky Cola:

     

     

    Mario:


     

    Zumindest was die Verantwortung der Eltern angeht, sind wir uns einig. 

    Aber blöderweise haben die wenigsten ein Vorstellung davon, was diese Produkte bei ihren Kindern anrichten. Und deshalb muss man diese Firmen in die Verantwortung nehmen - denn die wissen genauso gut wie die Tabaklobby, wie süchtigmachend ihre Produkte sind, und dass sie diesem Umstand ihre Profite verdanken.

    Wieso sollten wir dieselben stupiden Fehler machen wie bei den Social Media? Weil es schwierig ist, gegen solche Konzerne anzugehen (siehe obiges Beispiel)? 

     

    Mein Problem mit deinem "Take" ist: wir haben Gestaltungsmöglichkeiten, die wir nutzen können und müssen, denn andere haben keine Skrupel, das zu tun. Für die Welt, die du dir wünscht, wirst du kämpfen müssen, Resignation wird dir nicht helfen.

     

     

    Also erstmal war meine Antwort natürlich nur auf diese Situation bezogen und davon weiche ich nicht ab. Wir müssen zu 100% die Eltern in Verantwortung ziehen, bis es sich herumgesprochen hat. Das gilt für Social Media genau so wie für AI und zuvor das Internet und zuvor Rockmusik.
    Zusätzlich am besten schon ab der Grundschule entsprechend Unterrichten. 


    Das heißt natürlich nicht, dass die Hersteller nicht auch gewisse Maßnahmen ergreifen und sich an Gesetze zu halten haben - ganz besonders beim Jugendschutz. Aber selbst hier sähe ich vor allem eine Pflicht zur Information bzw. Warnung und Jugendschutz-Systeme nach dem Stand der technischen Möglichkeiten. 
    Außerdem wird das alles "real" nur einen symbolischen Effekt haben. Alternativen in weniger regulierten Ländern oder gar völlig unkontrollierte, selbst gehostete Systeme, sind schon jetzt nur ein paar Klicks entfernt. 

    Ich sehe aber auch keinen Grund und keine Grundlage dafür, Unternehmen darüber hinaus zu bevormunden. Ein privates Unternehmen bietet einen Dienst an und man kann ihn freiwillig nutzen. Nutzt man ihn entgegen der Vernunft oder lässt seine Kinder daran spielen, ist es doch nicht mehr innerhalb der vorhergesehenen Nutzung. 
    Der Vergleich mit Messer-Herstellern, die nicht dafür verantwortlich sind, wo der Käufer sie hineinsteckt, erscheint nur auf den ersten Blick zu simpel. Selbst wenn wir hier das Internet erst 2013 entdeckt haben, sollte seine Existenz und Gefahr inzwischen genau so allgemein bekannt sein, wie die Spitze Seite am Messer. Der Zugrif auf AI ist ja erstmal nur eine weitere Sache, auf die man mit dem Internet Zugriff erlangt. 

    Bei deinem Messervergleich begibst du dich auf dünnes Eis. Deine Argumentation ähnelt verdächtig jener der NRA: "Nicht Waffen töten Menschen, sondern Menschen". Tatsächlich wissen wir, dass der leichte Zugang zu Waffen das impulsive Töten erst ermöglicht. Wer profitiert von dieser Argumentation? Die Hersteller der Waffen.

     

    Ich greife noch mal dein Strohmann-Argument (https://de.wikipedia.org/wiki/Strohmann-Argument) bez. eines Verbots von Stricken und Stühlen auf, da sie ja auch am Selbstmord des Jugendlichen beteiligt waren.

    Ich würde Hersteller von Stricken und Stühlen zur Rechenschaft ziehen, wenn sich herausstellen würde, dass Stricke und Stühle bewusst die geistige Gesundheit von Menschen beeinträchtigen (von Psychosen bis zu Selbstmorden), um einen wirtschaftlichen/strategischen Vorteil für die Hersteller zu erzielen.

     

    Die Gesellschaft zahlt einen Preis für dieses Verhalten. Damit sind wir wieder beim Motto vieler verantwortungsloser Unternehmen: "Risiken auf die Öffentlichkeit übertragen, Gewinne privatisieren."

     

    Du siehst also keinen Grund, Unternehmen zu bevormunden?

  • 13.11.25, 02:45 - Zuletzt bearbeitet 13.11.25, 03:01.

     

     

    Mario:


     

    Zumindest was die Verantwortung der Eltern angeht, sind wir uns einig. 

    Aber blöderweise haben die wenigsten ein Vorstellung davon, was diese Produkte bei ihren Kindern anrichten. Und deshalb muss man diese Firmen in die Verantwortung nehmen - denn die wissen genauso gut wie die Tabaklobby, wie süchtigmachend ihre Produkte sind, und dass sie diesem Umstand ihre Profite verdanken.

    Wieso sollten wir dieselben stupiden Fehler machen wie bei den Social Media? Weil es schwierig ist, gegen solche Konzerne anzugehen (siehe obiges Beispiel)? 

     

    Mein Problem mit deinem "Take" ist: wir haben Gestaltungsmöglichkeiten, die wir nutzen können und müssen, denn andere haben keine Skrupel, das zu tun. Für die Welt, die du dir wünscht, wirst du kämpfen müssen, Resignation wird dir nicht helfen.

     

     

    Also erstmal war meine Antwort natürlich nur auf diese Situation bezogen und davon weiche ich nicht ab. Wir müssen zu 100% die Eltern in Verantwortung ziehen, bis es sich herumgesprochen hat. Das gilt für Social Media genau so wie für AI und zuvor das Internet und zuvor Rockmusik.
    Zusätzlich am besten schon ab der Grundschule entsprechend Unterrichten. 


    Das heißt natürlich nicht, dass die Hersteller nicht auch gewisse Maßnahmen ergreifen und sich an Gesetze zu halten haben - ganz besonders beim Jugendschutz. Aber selbst hier sähe ich vor allem eine Pflicht zur Information bzw. Warnung und Jugendschutz-Systeme nach dem Stand der technischen Möglichkeiten. 
    Außerdem wird das alles "real" nur einen symbolischen Effekt haben. Alternativen in weniger regulierten Ländern oder gar völlig unkontrollierte, selbst gehostete Systeme, sind schon jetzt nur ein paar Klicks entfernt. 

    Ich sehe aber auch keinen Grund und keine Grundlage dafür, Unternehmen darüber hinaus zu bevormunden. Ein privates Unternehmen bietet einen Dienst an und man kann ihn freiwillig nutzen. Nutzt man ihn entgegen der Vernunft oder lässt seine Kinder daran spielen, ist es doch nicht mehr innerhalb der vorhergesehenen Nutzung. 
    Der Vergleich mit Messer-Herstellern, die nicht dafür verantwortlich sind, wo der Käufer sie hineinsteckt, erscheint nur auf den ersten Blick zu simpel. Selbst wenn wir hier das Internet erst 2013 entdeckt haben, sollte seine Existenz und Gefahr inzwischen genau so allgemein bekannt sein, wie die Spitze Seite am Messer. Der Zugrif auf AI ist ja erstmal nur eine weitere Sache, auf die man mit dem Internet Zugriff erlangt. 

  • 12.11.25, 18:10

     

    Jacky Cola:

     

    Mario:

     

     

    Nein. Der "Take" ist nicht weit hergeholt. Ich würde mal die rosarote Brille absetzen und mir zu Gemüte führen, was Jonathan Haidt zu den Folgen von Social Media auf Kinder und Jugendliche zu sagen hat.

    Die Parallelen zu KI-ChatBots sind mehr als offensichtlich.

     

    KI-ChatBots sind zum jetzigen Zeitpunkt NICHT SICHER - auch wenn Sam Altman Mantra-artig wiederholt, seine Produkte wären es.

     

    Deine Argumentation - sofern man das so nennen kann - ist ein Strohmann. Ich fordere nicht KI-ChatBots sowenig wie Seile zu verbieten, sondern fahrlässige Hersteller für die Folgen ihrer Produkte haftbar zu machen, so wie man es schon für Facebook, Tiktok & Co machen hätte sollen - deren negativen Folgen auf die geistige Gesundheit einer ganzen Generation sind bestens dokumentiert.

     

    Im übrigen ging es mir nicht darum, Leid zu verharmlosen. Vielmehr möchte ich aufzeigen, dass unser moralischer Kompass verlässlich funktioniert, wenn unseren Kindern so nachvollziehbar Schaden zugefügt wird.

    Ich bedaure, dass der moralische Kompass in den meisten Fällen versagt, wenn die Täter keine Menschen sind.

     

    Die "Täter" sind aber Menschen. Nämlich genau die Menschen, die den Kindern den Zugang dazu geben, wozu sie keinen Zugang haben sollten. Dafür können doch die Anbieter nichts. 

    Wer seinem Kind die Hardcore-Porno DVDs gibt, der kann sich nicht beim Hersteller beschweren, dass unangemessene Inhalte drauf sind. Und wer sein Kind mit AI spielen lässt, darf sich nicht beschweren, dass die AI nun einmal AI sachen macht. In beiden Fällen hilft einzig und allein gesunde und rechtzeitige aufklärung mit dem umgang.


    Ich weiß, dass es heutzutage oft auf unverständnis trifft, aber in meiner Vorstellung ist es zu genau 100% die Aufgabe der Eltern, Kinder vor sowas zu schützen. Kein Kind wird mit Internetanschluss und Handy geboren. 

    Man verbringt jahrelang damit, kindern zu erzählen, wie man richtig über die straße geht und wie man nicht entführt wird und dann gibt man ihnen völlig unkontrolliert ein handy mit internetanschluss und wundert sich über negative effekte?

    Und ja, genau dein "Take" ist für mich das Problem. Denn dadurch wird einfach nur die Verantwortung abgeschoben, anstatt auf die echte Lösung hinzuarbeiten - nämlich dass Eltern verantwortung dafür zeigen, was sie ihre Kinder konsumieren lassen.

    Moralisch/Rechtlich mag ich dir zustimmen, dass es für Unternehmen auch grenzen geben muss. REAL hat es aber keine Auswirkung auf diese Art von Problemen und hilft nicht bei der Lösung. Ganz davon abgesehen, dass sich das Internet nunmal nicht kontrollieren lässt. 




     

    Zumindest was die Verantwortung der Eltern angeht, sind wir uns einig. 

    Aber blöderweise haben die wenigsten ein Vorstellung davon, was diese Produkte bei ihren Kindern anrichten. Und deshalb muss man diese Firmen in die Verantwortung nehmen - denn die wissen genauso gut wie die Tabaklobby, wie süchtigmachend ihre Produkte sind, und dass sie diesem Umstand ihre Profite verdanken.

    Wieso sollten wir dieselben stupiden Fehler machen wie bei den Social Media? Weil es schwierig ist, gegen solche Konzerne anzugehen (siehe obiges Beispiel)? 

     

    Mein Problem mit deinem "Take" ist: wir haben Gestaltungsmöglichkeiten, die wir nutzen können und müssen, denn andere haben keine Skrupel, das zu tun. Für die Welt, die du dir wünscht, wirst du kämpfen müssen, Resignation wird dir nicht helfen.

  • 12.11.25, 17:29 - Zuletzt bearbeitet 12.11.25, 17:31.

     

    Mario:

     

     

    Nein. Der "Take" ist nicht weit hergeholt. Ich würde mal die rosarote Brille absetzen und mir zu Gemüte führen, was Jonathan Haidt zu den Folgen von Social Media auf Kinder und Jugendliche zu sagen hat.

    Die Parallelen zu KI-ChatBots sind mehr als offensichtlich.

     

    KI-ChatBots sind zum jetzigen Zeitpunkt NICHT SICHER - auch wenn Sam Altman Mantra-artig wiederholt, seine Produkte wären es.

     

    Deine Argumentation - sofern man das so nennen kann - ist ein Strohmann. Ich fordere nicht KI-ChatBots sowenig wie Seile zu verbieten, sondern fahrlässige Hersteller für die Folgen ihrer Produkte haftbar zu machen, so wie man es schon für Facebook, Tiktok & Co machen hätte sollen - deren negativen Folgen auf die geistige Gesundheit einer ganzen Generation sind bestens dokumentiert.

     

    Im übrigen ging es mir nicht darum, Leid zu verharmlosen. Vielmehr möchte ich aufzeigen, dass unser moralischer Kompass verlässlich funktioniert, wenn unseren Kindern so nachvollziehbar Schaden zugefügt wird.

    Ich bedaure, dass der moralische Kompass in den meisten Fällen versagt, wenn die Täter keine Menschen sind.

     

    Die "Täter" sind aber Menschen. Nämlich genau die Menschen, die den Kindern den Zugang dazu geben, wozu sie keinen Zugang haben sollten. Dafür können doch die Anbieter nichts. 

    Wer seinem Kind die Hardcore-Porno DVDs gibt, der kann sich nicht beim Hersteller beschweren, dass unangemessene Inhalte drauf sind. Und wer sein Kind mit AI spielen lässt, darf sich nicht beschweren, dass die AI nun einmal AI sachen macht. In beiden Fällen hilft einzig und allein gesunde und rechtzeitige aufklärung mit dem umgang.


    Ich weiß, dass es heutzutage oft auf unverständnis trifft, aber in meiner Vorstellung ist es zu genau 100% die Aufgabe der Eltern, Kinder vor sowas zu schützen. Kein Kind wird mit Internetanschluss und Handy geboren. 

    Man verbringt jahrelang damit, kindern zu erzählen, wie man richtig über die straße geht und wie man nicht entführt wird und dann gibt man ihnen völlig unkontrolliert ein handy mit internetanschluss und wundert sich über negative effekte?

    Und ja, genau dein "Take" ist für mich das Problem. Denn dadurch wird einfach nur die Verantwortung abgeschoben, anstatt auf die echte Lösung hinzuarbeiten - nämlich dass Eltern verantwortung dafür zeigen, was sie ihre Kinder konsumieren lassen.

    Moralisch/Rechtlich mag ich dir zustimmen, dass es für Unternehmen auch grenzen geben muss. REAL hat es aber keine Auswirkung auf diese Art von Problemen und hilft nicht bei der Lösung. Ganz davon abgesehen, dass sich das Internet nunmal nicht kontrollieren lässt. 




     

  • 12.11.25, 16:21

     

    Jacky Cola:

     

    Mario:

    https://www.derstandard.at/story/3000000295822/openai-anwaelte-machen-druck-auf-familie-nach-teenager-suizid

     

    Was muss eigentlich passieren, dass eine ähnliche moralische Entrüstung wie im Fall der Missbrauchsvorwürfe gegen das SOS-Kinderdorf-System entsteht?

     

    Braucht es mehr solche Tragödien? Muss es jemanden treffen, den man persönlich gekannt hat?

     

    Wenn OpenAI sich hier ihrer Verantwortung entziehen können, dann stehen uns harte Zeiten bevor. Denn dann steht fest: du brauchst nur groß genug sein, um mit ALLEM durchzukommen.

     

     

     

    Huiii, das ist aber ein interessanter Take, nachgewiesene Vergewaltigung und Folterung von Kindern mit einem freiwillig nutzbaren Textchat zu vergleichen 😂😂😂

     

    Und dann müssen wir erstmal Seil-Hersteller verklagen und Stühle am besten gleich komplett verbieten, weil diese Dinge schon Tausendfach für Selbstmord verwendet wurden.  Wieso sind Seile noch immer legal???????

     

    Oder sollte man das Internet gleich ganz verbieten, weil man auch ohne chatgpt suizidmethoden dort finden kann? 

     

    Sorry aber das ist zu weit hergeholt. Wer suizid als ausweg sieht, der ist durch ganz andere Gründe an diese stelle gekommen und man müsste tatsächlich den Einzelfall untersuchen - es ist nun einmal ein Unterschied, ob es aktiv dazu beigetragen hat oder eben nur als neutrale Informationsquelle für jemanden dient, der sowieso schon entschieden hat. 

     

    Wenn man den Hersteller eines Werkzeuges für jede falsche Verwendung von Nutzern verantwortlich machen könnte, dann dürfte man ja gar nichts mehr herstellen.

     

    Noch dazu ist es Amerika und das ist nicht gerade unbekannt dafür, dass jede Gelegenheit zur Klage gegen große Unternehmen genutzt wird, weil man sich viel Geld dabei erhofft.

     

    Natürlich sehe ich auch ein, dass es gefahren haben kann. Aber wie gesagt, kann man nicht alles gleich verbieten, nur weil von vielen millionen nutzern einige webige die Funktion missbrauchen. 

     

     

    Was auch nicht erwähnt wird ist, dass Millionen von Leuten mit ChatGPT über suizid reden - da gibt es natürlich keine Zahlen, wie viele von denen dort hilfe gefunden haben und vielleicht vom letzten Schritt abgehalten wurden. Das ist den Herstellern ja bekannt und sie arbeiten aktiv daran, dies so gut wie möglich zu verbessern. 

    Auch in vielen anderen Gebieten ist es schon jetzt eine Super Möglichkeit für Leute, die eben nicht zu einem echten Psycholgen können oder wollen. 

    Nein. Der "Take" ist nicht weit hergeholt. Ich würde mal die rosarote Brille absetzen und mir zu Gemüte führen, was Jonathan Haidt zu den Folgen von Social Media auf Kinder und Jugendliche zu sagen hat.

    Die Parallelen zu KI-ChatBots sind mehr als offensichtlich.

     

    KI-ChatBots sind zum jetzigen Zeitpunkt NICHT SICHER - auch wenn Sam Altman Mantra-artig wiederholt, seine Produkte wären es.

     

    Deine Argumentation - sofern man das so nennen kann - ist ein Strohmann. Ich fordere nicht KI-ChatBots sowenig wie Seile zu verbieten, sondern fahrlässige Hersteller für die Folgen ihrer Produkte haftbar zu machen, so wie man es schon für Facebook, Tiktok & Co machen hätte sollen - deren negativen Folgen auf die geistige Gesundheit einer ganzen Generation sind bestens dokumentiert.

     

    Im übrigen ging es mir nicht darum, Leid zu verharmlosen. Vielmehr möchte ich aufzeigen, dass unser moralischer Kompass verlässlich funktioniert, wenn unseren Kindern so nachvollziehbar Schaden zugefügt wird.

    Ich bedaure, dass der moralische Kompass in den meisten Fällen versagt, wenn die Täter keine Menschen sind.

  • 12.11.25, 15:07 - Zuletzt bearbeitet 12.11.25, 15:08.

     

    Mario:

    https://www.derstandard.at/story/3000000295822/openai-anwaelte-machen-druck-auf-familie-nach-teenager-suizid

     

    Was muss eigentlich passieren, dass eine ähnliche moralische Entrüstung wie im Fall der Missbrauchsvorwürfe gegen das SOS-Kinderdorf-System entsteht?

     

    Braucht es mehr solche Tragödien? Muss es jemanden treffen, den man persönlich gekannt hat?

     

    Wenn OpenAI sich hier ihrer Verantwortung entziehen können, dann stehen uns harte Zeiten bevor. Denn dann steht fest: du brauchst nur groß genug sein, um mit ALLEM durchzukommen.

     

     

     

    Huiii, das ist aber ein interessanter Take, nachgewiesene Vergewaltigung und Folterung von Kindern mit einem freiwillig nutzbaren Textchat zu vergleichen 😂😂😂

     

    Und dann müssen wir erstmal Seil-Hersteller verklagen und Stühle am besten gleich komplett verbieten, weil diese Dinge schon Tausendfach für Selbstmord verwendet wurden.  Wieso sind Seile noch immer legal???????

     

    Oder sollte man das Internet gleich ganz verbieten, weil man auch ohne chatgpt suizidmethoden dort finden kann? 

     

    Sorry aber das ist zu weit hergeholt. Wer suizid als ausweg sieht, der ist durch ganz andere Gründe an diese stelle gekommen und man müsste tatsächlich den Einzelfall untersuchen - es ist nun einmal ein Unterschied, ob es aktiv dazu beigetragen hat oder eben nur als neutrale Informationsquelle für jemanden dient, der sowieso schon entschieden hat. 

     

    Wenn man den Hersteller eines Werkzeuges für jede falsche Verwendung von Nutzern verantwortlich machen könnte, dann dürfte man ja gar nichts mehr herstellen.

     

    Noch dazu ist es Amerika und das ist nicht gerade unbekannt dafür, dass jede Gelegenheit zur Klage gegen große Unternehmen genutzt wird, weil man sich viel Geld dabei erhofft.

     

    Natürlich sehe ich auch ein, dass es gefahren haben kann. Aber wie gesagt, kann man nicht alles gleich verbieten, nur weil von vielen millionen nutzern einige webige die Funktion missbrauchen. 

     

     

    Was auch nicht erwähnt wird ist, dass Millionen von Leuten mit ChatGPT über suizid reden - da gibt es natürlich keine Zahlen, wie viele von denen dort hilfe gefunden haben und vielleicht vom letzten Schritt abgehalten wurden. Das ist den Herstellern ja bekannt und sie arbeiten aktiv daran, dies so gut wie möglich zu verbessern. 

    Auch in vielen anderen Gebieten ist es schon jetzt eine Super Möglichkeit für Leute, die eben nicht zu einem echten Psycholgen können oder wollen. 

  • 12.11.25, 12:54

    https://www.derstandard.at/story/3000000295822/openai-anwaelte-machen-druck-auf-familie-nach-teenager-suizid

     

    Was muss eigentlich passieren, dass eine ähnliche moralische Entrüstung wie im Fall der Missbrauchsvorwürfe gegen das SOS-Kinderdorf-System entsteht?

     

    Braucht es mehr solche Tragödien? Muss es jemanden treffen, den man persönlich gekannt hat?

     

    Wenn OpenAI sich hier ihrer Verantwortung entziehen können, dann stehen uns harte Zeiten bevor. Denn dann steht fest: du brauchst nur groß genug sein, um mit ALLEM durchzukommen.

     

     

  • 09.11.25, 20:02

    Auch eine interessante Information: rund 80% der Gewinne an der US-Börse dieses Jahr gehen auf die KI-Unternehmen zurück (siehe https://youtu.be/E1QY1FqwRAM?si=egQucCu-KOVOsSCK, ca. Minute 12).

    Die KI-Blase stützt die gerade massiv schwächelnde US-Wirtschaft. Ohne diese Hilfe wäre es fraglich, ob sich Trump lange an der Macht halten könnte...

    Vielleicht ein Grund mehr, die Finanzierung der KI-Firmen über Abos zu überdenken ;-)

  • 09.11.25, 18:42

     

    Mandi:

    Kleiner Schenk:

    Am Scheideweg: KI als Entdeckerin: „Wir verstehen sie nicht“ - science.ORF.at

    Ich finde es spannend, wo in dem Artikel die eigentlichen Herausforderungen gesehen werden: das Nachvollziehen von KI-Output. Ich beziehe mich wieder auf AI 2027: wir befinden uns jetzt in der Phase mit den "stolpernden" KI-Agenten. Das heißt, dass in den meisten Fällen eine potentielle Produktivitätssteigerung durch die notwendige menschliche Kontrolle wieder vernichtet wird. Laut der Prognosen wird sich das schon nächstes Jahr ändern (zuverlässige Agenten) und bald danach exponentiell explodieren, sobald Menschen nicht mehr Teil der Entwicklungsiterationen sind. Das Bild in AI 2027 ist eindrücklich: schließlich sitzen die Wissenschaftler nur mehr vor ihren Bildschirmen und sehen zu, wie sich die Systeme selbst optimieren - ohne ansatzweise zu verstehen, was da passiert.

    Ist ja auch nachvollziehbar: wenn die KIs erst mal 100x so schnell wie Menschen sind, haben sie den Arbeitsleistung eines Jahres für einen Vollzeitangestellten  in weniger als 24h erledigt.

    Diese Realität ist laut Experten nicht 50 Jahre, sondern weniger als 5 Jahre entfernt...

  • 08.11.25, 19:58

    Tristan Harris im Interview:

    eine unglaublich gute und nachvollziehbare Analyse zu KI

    https://youtu.be/Rhcp7ZUiw3g?si=RRVFd2stS9KEzYXi

     

     

  • 08.11.25, 08:30

     

    Jacky Cola:

    Philip K Dick 

    Oh, was für ein Visionär!

  • 07.11.25, 20:38

     

    Nanda:

    Skeptisch gegenüber? Oh ja. Ich bin nun 57 Jahre alt, und in meiner Kindheit gab es noch den Schwarzweissfernseher und das Drehscheibentelefon. Ich war mit 50 mal in London in einem Museum für Technik und dachte: Das gibt es ja nicht. Ich kenne alles! Was bin ich doch für eine alte Maus und Wahnsinn wie sich das in über nur 50 Jahren  so veränderte. Ich fühlte mich plötzlich steinalt...;-) 

     

    Ich bin der Ansicht, dass alles viel zu schnell kam, zu unbedacht... 

    Klar es gibt Berufe, da befürworte ich es auch.

     

    Waldsterben in den 80 er Jahren- spricht heute niemand mehr.

    Natelstrahlen welche gesundheitsschädlich sind- kein Thema.

    Was ist in 50 Jahren kein Thema mehr? Atommüll- Endlager? Wettermanipulationen? Künstliche Ernährung?

     

    DAS gibt mir zu denken, dieser dumme Gewohnheitseffekt. Bald normal, dass künstliche Puppen unter uns marschieren? Oder daheim auf dem gemütlichen Sofa auf uns warten? Vielleicht gibt es dann auch künstliche Hunde und Katzen, die sauber sind und gut erzogen? Und kein Futter verlangen und keine Tierarztkosten haben! Die Menschen werden darauf hingeführt: Schon jetzt fahren sie auf Sammelfiguren ab- mir fällt der Name leider nicht ein. Diese plüschige Stofffiguren, unglaublich clever vermarktet. Jeder will sie haben. Genau so werden mal künstliche Tiere an die Menschen herangeführt. Die sind es bis dann gewohnt zu hypen.


    Was für ein Zufall, du bist 57 Jahre und vor genau 57 Jahren hat Philip K Dick das Buch "Träumen Androiden von elektrischen Schafen" geschrieben, in dem genau so eine Zukunft beschrieben wird. 
    Nur Reiche können sich dort echte Tiere leisten, alle anderen haben elektrische Tiere (manche tun so, als seien ihre echt). Und menschliche Androiden sind nur noch durch spezielle psycholigische tests von menschen zu unterscheiden. Gutes Buch, gab da später auch nen Film damit als vorlage, aber ohne Schafe  :>
     

  •  

    Nanda:

    Gesetze? Wenn die funktionieren würden, gäbe es zum Beispiel das Darknet nicht.

     

    Immer wieder hört man von Datenklau, Betrug usw..- 

     

    Mit Gesetzen ist es nicht getan, auch nicht mit hohen Bussen.

     

    Ich glaube, dass es bereits zu spät ist. Ehrlich...

     

    Natürlich reichen Gesetze nicht aus, man muss sie auch durchsetzen, in letzter Zeit 
    hört man auch immer wieder von Razzien gegen Betreiber von Darknetforen, wo 
    Betrug, Pornografie oder ähnliches betrieben wird...

  • 07.11.25, 18:43

     

    Nanda:

    Gesetze? Wenn die funktionieren würden, gäbe es zum Beispiel das Darknet nicht.

     

    Immer wieder hört man von Datenklau, Betrug usw..- 

     

    Mit Gesetzen ist es nicht getan, auch nicht mit hohen Bussen.

     

    Ich glaube, dass es bereits zu spät ist. Ehrlich...

     

    Es ist noch nicht zu spät! Schon ein Mensch kann die Welt retten. Glaubst du nicht? Nur zwei Beispiele:

    https://de.wikipedia.org/wiki/Stanislaw_Jewgrafowitsch_Petrow

    https://de.wikipedia.org/wiki/Wassili_Alexandrowitsch_Archipow

    Wenn ein Einzelner schon im richtigen Moment soviel bewirken kann, wieviel können dann hunderte Millionen oder gar Milliarden?

  • 07.11.25, 17:38

    Gesetze? Wenn die funktionieren würden, gäbe es zum Beispiel das Darknet nicht.

     

    Immer wieder hört man von Datenklau, Betrug usw..- 

     

    Mit Gesetzen ist es nicht getan, auch nicht mit hohen Bussen.

     

    Ich glaube, dass es bereits zu spät ist. Ehrlich...

     

  •  

    Jacky Cola:

     

    Schwarzgelber Mutbürger:

     

    Es gibt noch eine Option C, nämlich nicht einfach nur Mitmachen, sondern die Dinge so regulieren,  dass sie sozial ausgestaltet sind...
     

     

    Dass es nicht unreguliert stattfindet, setze ich voraus. Wir haben ja ne Regierung und Gesetze, so wie andere Länder auch. Die entscheidung im Detail muss natürlich gemacht werden, aber dafür werden politiker bezahlt bzw gewählt. 
    Unterm Strich bleibe ich aber dabei. Selbst strengste UHG für KI würde es im besten Fall alles etwas aufschieben - umgehbar ist es nicht. Dazu kommt noch, dass Gesetze nun einmal nicht Global sind, Internet aber schon. Alles keine neuen Probleme, nur in anderem Gewand.
     

     

    Schwarzgelber Mutbürger:

     

    Sorry, aber Meinung nach wurde hierzulande nicht versucht, das Internet aus den Schulen 
    fernzuhalten, sondern man hat keine geeigneten Wege gefunden es flächendeckend ein-
    zuführen, Mittel wurden nicht abgerufen etc. meist war es das Engagement einzelner Lehr-
    er wenn eine Schule voran ging, aber System hatte die Ausbreitung meist nicht, jetzt bei KI

    ist es ähnlich, einige Schulen/Lehrer bringen sie im Unterricht und vieler Orts fehlt es schon
    an nötigen Endgeräten, letztlich braucht es aber eine strenge Regulierung der KI- Modelle
    um Missbrauch zu vermeiden, aber klar in den Anwendungen steckt auch viel Potential...


    Ja nu, das kanns ja nicht sein, dass "einzelne Lehrer" aus Eigenmotivation das Schulsystem reformieren. Es gibt dazu Gesetze  und Ministerien, die sowas beschließen könnten und dann hätten sich die Lehrer bitte daran zu halten. Aber das hatten wir, wie gesagt, bei Corona schon gesehen. Lehrer haben keine Lust auf was neues und deswegen fallen halt 3 Fächer im Fernunterricht weg. 

    Zumal konkrete nutzung oder bereitstellung von AI ja nicht mal das erste ziel wäre - es würde ja genügen, den umgang zu lehren und die vorzüge aufzuzeigen, vor den Gefahren zu waren etc.  Exakt die gleiche Sache, die es schon seit 20 Jahren fest vorgeschrieben fürs internet geben müsste, wo letztendlich auch nur einzelne lehrer mal "internet recherche" angeboten haben. Aber sowas wie "medienkompempetenz" hätte meiner Meinung nach ein platz in den Hauptfächern verdient.

    Uns haben sie damals (1999) genau zur 5ten klasse in jeden Klassenraum einen gammeligen PC gestellt, mit dem aber NIE auch nur irgendwas gemacht wurde. Hauptsache die schule konnte sich öffentlich mit der "leistung" rühmen, richtig modern zu sein :>   Im ersten Jahr liefen noch gelegentlich spiele darauf, aber ohne nutzung war das einfach nur ne geldverschwendung. 


     

     

    In unserer Schule gab es einen Computerraum (1995) in dem uns Grundlagen vermittelt 
    wurden und wir auch mal im Internet surfen durften^^, 

    derzeit steht eine wirkliche Regulierung noch aus und die führenden AI Entwickler betrei-
    ben kräftig Lobbying gegen Regulierung, einzelne Länder bzw. die EU können es schon 
    so regulieren, dass es auf diesem Staatsgebiet keinen Missbrauch gibt, schafft man zum
    Beispiel bei Youtube auch, dass bestimmte Inhalte in einigen Ländern nicht abrufbar sind, 

    aber klar ein Fach Medienkompetenz wäre ein richtiger und wichtiger Schritt!

Interesse geweckt? Jetzt kostenlos registrieren!

Du bist nur einen Klick entfernt. Die Registrierung dauert nur 1 Minute.