Um mitzumachen, melde dich bitte an.
  • Künstliche Intelligenz (KI) und ihre Folgen

    Diskussion · 93 Beiträge · 5 Gefällt mir · 749 Aufrufe

    KI (auch AI - Artificial Intelligence) ist ein komplexes Themenfeld, dessen Auswirkungen nicht nur für die technische Community relevant sind, sondern für Wirtschaft, Gesellschaft, Politik und nicht zuletzt den Fortbestand der Zivilisation. Das Tempo der Entwicklung ist atemberaubend, um nicht zu sagen: halsbrecherisch. Nur wenige sind sich der Tragweite der Ereignisse bewusst, und dass uns als (noch) intelligenteste Spezies auf dem Planeten buchstäblich die Zeit davon läuft.

    Ich möchte mit euch eine offene Diskussion über die verschiedenen Aspekte von KI (und speziell die Bedrohung durch superintelligente KI) führen, und wie wir für mehr Bewusstsein hinsichtlich der aktuell sehr bedenklichen Entwicklungen sorgen können.

    Als Einstieg empfehle ich das Studium des AI 2027 Reports (https://ai-2027.com/).

    31.10.25, 10:42

Beiträge

  • Heute, 01:03

     

    Mandi:

     

    Jacky Cola:

    Der Arbeitsmarkt ist und bleibt ne Glaskugel. Ich glaube nicht, dass es rasend schnell geht. KI ist einfach noch nicht zuverlässig genug, um ganze Mitarbeiter zu ersetzen und wird es auch längere Zeit nicht sein.  Natürlich werden einige Sachen leichter und dadurch fallen Jobs weg, das wird sich aber eher über Jahre hinziehen. Besser früher als später muss die politik aber darauf reagieren. 

    Da fällt mir die bereits alte Geschichte wieder ein.

    Fürs Abitur in Österreich brauchte es einige Zeit lang eine vorwissenschaftliche Arbeit. Praktisch sofort mit dem Aufkommen von ChatGPT (wenige Monate später) wurde diese vorwissenschaftliche Arbeit abgeschafft, mit der Begründung, man kann nicht mehr unterscheiden, ob eine solche Arbeit der Computer oder ein Mensch geschrieben hat.

    Ich fasse es bis heute nicht, wie sehr sich die Lehrerschaft damit selber diskreditiert hat. Ich vermute, es war ein willkommener Anlass für die Lehrerschaft, diese lästige vorwissenschaftliche Arbeit loszuwerden.

     

    Kann ich jetzt natürlich nicht nachvollziehen ob sie da wirklich keine chance hatten oder sowieso nur auf ne Gelegenheit gewartet haben und AI bot sich da nunmal an.

     

    Ist ja zum Teil auch bei Jobs der fall. Über Corona hat (aus denkbaren gründen) alles mit "online" komplett geboomt, leute wurden eingestellt und teilweise werden jetzt leute mit der Begründung "AI" entlassen, die man eigentlich sowieso schon loswerden wollte. 

     

    In beiden fällen ist AI ja der vorwand aber eben nicht der primäre Auslöser. Würde ich also nicht der ai vorwerfen. 

     

    Tatsächlich kann ich gut glauben, dass chatgpt sowas problemlos schreiben kann. Die lösung sollte aber dann natürlich die schaffung sinnvoller alternativen sein, bevor man das bestehende system abschafft.

     

     

     

     

     

    Mario:

     

    Ute:

     

     

    Ich bin erwachsen, spare dir deine Belehrungen!

    Wenn es dir am Leseverständnis mangelt, dein Problem.

    Genauso stelle ich mir die Reaktion eines Erwachsenen vor ;-)

     

     

    Immerhin hat sie ihre Texte selbst geschrieben:) 

     

     

    Ich glaube uns allen ist klar dass die Sterne nichts über die Zukunft sagen und solche muster höchstens zufällig sind. 

     

    Aber die Kunst dabei ist ja, dass man letztendlich oft genug richtig mit den Behauptungen liegt, um glaubhaft zu sein.

     

    Natürlich glaube ich, dass der herr erst analysiert und educated guesses anstellt und DANN die dazu passenden muster in den sternen findet. Aber wenn man das und das nötige Drama rausnimmt, bleiben eben valide prognosen.  

     

  • Gestern, 18:23

     

    Ute:

     

    Mario:

     

    Astrologie ist kein guter Ratgeber - genau so wenig wie Wünschelrutengehen, Kaffeesatzlesen oder andere Manifestationen von Aberglauben.

     

    Die Google-KI fasst das ganz gut zusammen:

     

    Skeptiker argumentieren, dass Astrologie eine Pseudowissenschaft ist, da es keine wissenschaftlichen Beweise für ihre Behauptungen gibt und sie auf einer veralteten Vorstellung basiert, dass die Erde im Zentrum des Universums steht. Es gibt keine physikalischen Grundlagen für die Annahme, dass Planeten und Sterne die menschliche Persönlichkeit oder das Schicksal beeinflussen, und Studien zeigen keinen Zusammenhang zwischen Sternzeichen und Charakter. Zusätzlich werden die Vorhersagen oft als vage und allgemeingültig (Binsenweisheiten) beschrieben, die sich nicht überprüfen lassen. 

    Keine wissenschaftliche Grundlage

    • Keine physikalischen Grundlagen: Es gibt keine nachweisbaren physikalischen Kräfte, die von Himmelskörpern ausgehen und die menschliche Persönlichkeit oder Ereignisse beeinflussen könnten.
    • Kein empirischer Beleg: Zahlreiche wissenschaftliche Studien haben gezeigt, dass es keine Korrelation zwischen Sternzeichen und Persönlichkeitsmerkmalen oder Lebensereignissen gibt.
    • Veraltetes Weltbild: Das Fundament der Astrologie basiert auf einem geozentrischen Weltbild, bei dem die Erde im Zentrum steht, was wissenschaftlich überholt ist. 

    Methodische Schwächen

    • Vage und allgemeingültige Aussagen: Astrologische Vorhersagen und Beschreibungen sind oft so allgemein gehalten, dass sie auf viele Menschen zutreffen und leicht als zutreffend interpretiert werden können ( Barnum-Effekt ).
    • Fehlende Überprüfbarkeit: Die Behauptungen der Astrologie lassen sich nicht mit wissenschaftlichen Methoden überprüfen und falsifizieren. 

    Psychologische Aspekte

    • Flucht vor Verantwortung: Die Astrologie bietet eine einfache Erklärung für schwierige Lebenssituationen und kann dazu dienen, die eigene Verantwortung auf die Sterne abzuwälzen.
    • Suche nach Sicherheit: In Zeiten der Unsicherheit suchen Menschen oft nach einfachen Antworten, die ihnen ein Gefühl von Kontrolle und Sicherheit vermitteln. 

     

    Ich bin erwachsen, spare dir deine Belehrungen!

    Wenn es dir am Leseverständnis mangelt, dein Problem.

    Genauso stelle ich mir die Reaktion eines Erwachsenen vor ;-)

  • Gestern, 16:45

     

    Mario:

     

    Ute:

     

     

    Ich freue mich, dass deine Erwartungen übertroffen wurden, denn so ging es mir eben auch. Sobald seine Vorhersagen eintreten, verweist er selbst auf seine alten Videos und würde sich das für mich alles ziemlich krude anfühlen, wäre ich schon längst weg. Seine zeitlichen Voraussagen stützt er natürlich auf die Astrologie, indem er Planetenstellungen vergleicht. Er schaut, wann diese Konstellationen schonmal genauso waren, recherchiert dann, was damals passiert ist und versucht logisch auf heutige Verhältnisse zu übertragen.

    Astrologie ist kein guter Ratgeber - genau so wenig wie Wünschelrutengehen, Kaffeesatzlesen oder andere Manifestationen von Aberglauben.

     

    Die Google-KI fasst das ganz gut zusammen:

     

    Skeptiker argumentieren, dass Astrologie eine Pseudowissenschaft ist, da es keine wissenschaftlichen Beweise für ihre Behauptungen gibt und sie auf einer veralteten Vorstellung basiert, dass die Erde im Zentrum des Universums steht. Es gibt keine physikalischen Grundlagen für die Annahme, dass Planeten und Sterne die menschliche Persönlichkeit oder das Schicksal beeinflussen, und Studien zeigen keinen Zusammenhang zwischen Sternzeichen und Charakter. Zusätzlich werden die Vorhersagen oft als vage und allgemeingültig (Binsenweisheiten) beschrieben, die sich nicht überprüfen lassen. 

    Keine wissenschaftliche Grundlage

    • Keine physikalischen Grundlagen: Es gibt keine nachweisbaren physikalischen Kräfte, die von Himmelskörpern ausgehen und die menschliche Persönlichkeit oder Ereignisse beeinflussen könnten.
    • Kein empirischer Beleg: Zahlreiche wissenschaftliche Studien haben gezeigt, dass es keine Korrelation zwischen Sternzeichen und Persönlichkeitsmerkmalen oder Lebensereignissen gibt.
    • Veraltetes Weltbild: Das Fundament der Astrologie basiert auf einem geozentrischen Weltbild, bei dem die Erde im Zentrum steht, was wissenschaftlich überholt ist. 

    Methodische Schwächen

    • Vage und allgemeingültige Aussagen: Astrologische Vorhersagen und Beschreibungen sind oft so allgemein gehalten, dass sie auf viele Menschen zutreffen und leicht als zutreffend interpretiert werden können ( Barnum-Effekt ).
    • Fehlende Überprüfbarkeit: Die Behauptungen der Astrologie lassen sich nicht mit wissenschaftlichen Methoden überprüfen und falsifizieren. 

    Psychologische Aspekte

    • Flucht vor Verantwortung: Die Astrologie bietet eine einfache Erklärung für schwierige Lebenssituationen und kann dazu dienen, die eigene Verantwortung auf die Sterne abzuwälzen.
    • Suche nach Sicherheit: In Zeiten der Unsicherheit suchen Menschen oft nach einfachen Antworten, die ihnen ein Gefühl von Kontrolle und Sicherheit vermitteln. 

     

    Ich bin erwachsen, spare dir deine Belehrungen!

    Wenn es dir am Leseverständnis mangelt, dein Problem.

  • Gestern, 16:43

     

    Ute:

     

    Jacky Cola:

     


    Ich hatte letzte Nacht dann mal Zeit, mir das anzuhören. Muss sagen, ich war positiv überrascht - mit Astrologie kann ich natürlich gar nichts anfangen - aber wie es scheint, kann er die andere sache ja recht gut und liefert stimmige vorhersagen. 

    Ich glaube ein paar Dinge dramatisiert er zu sehr.

    Ich will nicht einsehen, dass "die menschlichkeit" verloren geht. Selbst wenn das gesamte Internet von KI und Spambots überrannt wird (das ist schon längst passiert), die Menschlichkeit findet weiterhin statt. Ganz besonders hier sind wir doch auf Spontacs/GE und man sieht doch, dass sich unzählige echte menschen ganz normal hier und im echten leben treffen und miteinander kommnunzieren. 


    Bei den übersetzungen seh ich sogar das Gegenteil. Hier werden Barrieren aufgehoben und man ist nicht mehr auf die Informationen und Sichtweisen der eigenen Sprache bzw sogar der eigenen Kultur beschränkt.


    Der Arbeitsmarkt ist und bleibt ne Glaskugel. Ich glaube nicht, dass es rasend schnell geht. KI ist einfach noch nicht zuverlässig genug, um ganze Mitarbeiter zu ersetzen und wird es auch längere Zeit nicht sein.  Natürlich werden einige Sachen leichter und dadurch fallen Jobs weg, das wird sich aber eher über Jahre hinziehen. Besser früher als später muss die politik aber darauf reagieren. 


    Das auflehnen der Menschheit seh ich gerne kommen. Ich will fast glauben, dass es nicht bis 2045 dauern wird. Wobei das natürlich auch stark davon abhängt, wie die bisher ungewisse entwicklung läuft.  Idealerweise wird es ja schon vorher politisch gelöst. 


    Ansonsten find ich seine vorhersagen aber ganz nett. "Wissen" kann man natürlich nichts davon, aber es klingt immerhin alles realistisch.

     

    Ich freue mich, dass deine Erwartungen übertroffen wurden, denn so ging es mir eben auch. Sobald seine Vorhersagen eintreten, verweist er selbst auf seine alten Videos und würde sich das für mich alles ziemlich krude anfühlen, wäre ich schon längst weg. Seine zeitlichen Voraussagen stützt er natürlich auf die Astrologie, indem er Planetenstellungen vergleicht. Er schaut, wann diese Konstellationen schonmal genauso waren, recherchiert dann, was damals passiert ist und versucht logisch auf heutige Verhältnisse zu übertragen.

    Astrologie ist kein guter Ratgeber - genau so wenig wie Wünschelrutengehen, Kaffeesatzlesen oder andere Manifestationen von Aberglauben.

     

    Die Google-KI fasst das ganz gut zusammen:

     

    Skeptiker argumentieren, dass Astrologie eine Pseudowissenschaft ist, da es keine wissenschaftlichen Beweise für ihre Behauptungen gibt und sie auf einer veralteten Vorstellung basiert, dass die Erde im Zentrum des Universums steht. Es gibt keine physikalischen Grundlagen für die Annahme, dass Planeten und Sterne die menschliche Persönlichkeit oder das Schicksal beeinflussen, und Studien zeigen keinen Zusammenhang zwischen Sternzeichen und Charakter. Zusätzlich werden die Vorhersagen oft als vage und allgemeingültig (Binsenweisheiten) beschrieben, die sich nicht überprüfen lassen. 

    Keine wissenschaftliche Grundlage

    • Keine physikalischen Grundlagen: Es gibt keine nachweisbaren physikalischen Kräfte, die von Himmelskörpern ausgehen und die menschliche Persönlichkeit oder Ereignisse beeinflussen könnten.
    • Kein empirischer Beleg: Zahlreiche wissenschaftliche Studien haben gezeigt, dass es keine Korrelation zwischen Sternzeichen und Persönlichkeitsmerkmalen oder Lebensereignissen gibt.
    • Veraltetes Weltbild: Das Fundament der Astrologie basiert auf einem geozentrischen Weltbild, bei dem die Erde im Zentrum steht, was wissenschaftlich überholt ist. 

    Methodische Schwächen

    • Vage und allgemeingültige Aussagen: Astrologische Vorhersagen und Beschreibungen sind oft so allgemein gehalten, dass sie auf viele Menschen zutreffen und leicht als zutreffend interpretiert werden können ( Barnum-Effekt ).
    • Fehlende Überprüfbarkeit: Die Behauptungen der Astrologie lassen sich nicht mit wissenschaftlichen Methoden überprüfen und falsifizieren. 

    Psychologische Aspekte

    • Flucht vor Verantwortung: Die Astrologie bietet eine einfache Erklärung für schwierige Lebenssituationen und kann dazu dienen, die eigene Verantwortung auf die Sterne abzuwälzen.
    • Suche nach Sicherheit: In Zeiten der Unsicherheit suchen Menschen oft nach einfachen Antworten, die ihnen ein Gefühl von Kontrolle und Sicherheit vermitteln. 
  • Gestern, 15:07

     

    Jacky Cola:

     

    Ute:

     

    Du lieferst eine schöne Vorlage: "... steht in den Sternen" :)

     

    Seit Corona schaue ich immer mal Dr. Christoph Niederwiesers Podcast an. Er hat ursprünglich internationale WW-Wissenschaften studiert und folgt nun nur noch seiner Berufung, der Astrologie und Zukunftsforschung. Mir gefällt seine wissenschaftliche Herangehensweise und er ist treffsicher mit seinen Analysen und Prognosen, was das Weltgeschehen betrifft. Ich glaube so etwas nicht blind, behalte die Infos aber immer im Hinterkopf. Es wird bis 2045 dauern, bis die Menschheit gegen die Tech-Oligarchen aufbegehren wird. Um 2030 werden wir immer mehr mit humanoiden Robotern konfrontiert sein. Für den Arbeitsmarkt sagt er schon in den nächsten 2 Jahren gravierende Einbrüche voraus.

     

    Falls es dich interessiert:

    https://www.youtube.com/watch?v=eOeA_OQ0-F0


    Ich hatte letzte Nacht dann mal Zeit, mir das anzuhören. Muss sagen, ich war positiv überrascht - mit Astrologie kann ich natürlich gar nichts anfangen - aber wie es scheint, kann er die andere sache ja recht gut und liefert stimmige vorhersagen. 

    Ich glaube ein paar Dinge dramatisiert er zu sehr.

    Ich will nicht einsehen, dass "die menschlichkeit" verloren geht. Selbst wenn das gesamte Internet von KI und Spambots überrannt wird (das ist schon längst passiert), die Menschlichkeit findet weiterhin statt. Ganz besonders hier sind wir doch auf Spontacs/GE und man sieht doch, dass sich unzählige echte menschen ganz normal hier und im echten leben treffen und miteinander kommnunzieren. 


    Bei den übersetzungen seh ich sogar das Gegenteil. Hier werden Barrieren aufgehoben und man ist nicht mehr auf die Informationen und Sichtweisen der eigenen Sprache bzw sogar der eigenen Kultur beschränkt.


    Der Arbeitsmarkt ist und bleibt ne Glaskugel. Ich glaube nicht, dass es rasend schnell geht. KI ist einfach noch nicht zuverlässig genug, um ganze Mitarbeiter zu ersetzen und wird es auch längere Zeit nicht sein.  Natürlich werden einige Sachen leichter und dadurch fallen Jobs weg, das wird sich aber eher über Jahre hinziehen. Besser früher als später muss die politik aber darauf reagieren. 


    Das auflehnen der Menschheit seh ich gerne kommen. Ich will fast glauben, dass es nicht bis 2045 dauern wird. Wobei das natürlich auch stark davon abhängt, wie die bisher ungewisse entwicklung läuft.  Idealerweise wird es ja schon vorher politisch gelöst. 


    Ansonsten find ich seine vorhersagen aber ganz nett. "Wissen" kann man natürlich nichts davon, aber es klingt immerhin alles realistisch.

     

    Ich freue mich, dass deine Erwartungen übertroffen wurden, denn so ging es mir eben auch. Sobald seine Vorhersagen eintreten, verweist er selbst auf seine alten Videos und würde sich das für mich alles ziemlich krude anfühlen, wäre ich schon längst weg. Seine zeitlichen Voraussagen stützt er natürlich auf die Astrologie, indem er Planetenstellungen vergleicht. Er schaut, wann diese Konstellationen schonmal genauso waren, recherchiert dann, was damals passiert ist und versucht logisch auf heutige Verhältnisse zu übertragen.

  • Gestern, 14:21

     

    Jacky Cola:

    Der Arbeitsmarkt ist und bleibt ne Glaskugel. Ich glaube nicht, dass es rasend schnell geht. KI ist einfach noch nicht zuverlässig genug, um ganze Mitarbeiter zu ersetzen und wird es auch längere Zeit nicht sein.  Natürlich werden einige Sachen leichter und dadurch fallen Jobs weg, das wird sich aber eher über Jahre hinziehen. Besser früher als später muss die politik aber darauf reagieren. 

    Da fällt mir die bereits alte Geschichte wieder ein.

    Fürs Abitur in Österreich brauchte es einige Zeit lang eine vorwissenschaftliche Arbeit. Praktisch sofort mit dem Aufkommen von ChatGPT (wenige Monate später) wurde diese vorwissenschaftliche Arbeit abgeschafft, mit der Begründung, man kann nicht mehr unterscheiden, ob eine solche Arbeit der Computer oder ein Mensch geschrieben hat.

    Ich fasse es bis heute nicht, wie sehr sich die Lehrerschaft damit selber diskreditiert hat. Ich vermute, es war ein willkommener Anlass für die Lehrerschaft, diese lästige vorwissenschaftliche Arbeit loszuwerden.

  • Gestern, 14:02

     

    Ute:

     

    Du lieferst eine schöne Vorlage: "... steht in den Sternen" :)

     

    Seit Corona schaue ich immer mal Dr. Christoph Niederwiesers Podcast an. Er hat ursprünglich internationale WW-Wissenschaften studiert und folgt nun nur noch seiner Berufung, der Astrologie und Zukunftsforschung. Mir gefällt seine wissenschaftliche Herangehensweise und er ist treffsicher mit seinen Analysen und Prognosen, was das Weltgeschehen betrifft. Ich glaube so etwas nicht blind, behalte die Infos aber immer im Hinterkopf. Es wird bis 2045 dauern, bis die Menschheit gegen die Tech-Oligarchen aufbegehren wird. Um 2030 werden wir immer mehr mit humanoiden Robotern konfrontiert sein. Für den Arbeitsmarkt sagt er schon in den nächsten 2 Jahren gravierende Einbrüche voraus.

     

    Falls es dich interessiert:

    https://www.youtube.com/watch?v=eOeA_OQ0-F0


    Ich hatte letzte Nacht dann mal Zeit, mir das anzuhören. Muss sagen, ich war positiv überrascht - mit Astrologie kann ich natürlich gar nichts anfangen - aber wie es scheint, kann er die andere sache ja recht gut und liefert stimmige vorhersagen. 

    Ich glaube ein paar Dinge dramatisiert er zu sehr.

    Ich will nicht einsehen, dass "die menschlichkeit" verloren geht. Selbst wenn das gesamte Internet von KI und Spambots überrannt wird (das ist schon längst passiert), die Menschlichkeit findet weiterhin statt. Ganz besonders hier sind wir doch auf Spontacs/GE und man sieht doch, dass sich unzählige echte menschen ganz normal hier und im echten leben treffen und miteinander kommnunzieren. 


    Bei den übersetzungen seh ich sogar das Gegenteil. Hier werden Barrieren aufgehoben und man ist nicht mehr auf die Informationen und Sichtweisen der eigenen Sprache bzw sogar der eigenen Kultur beschränkt.


    Der Arbeitsmarkt ist und bleibt ne Glaskugel. Ich glaube nicht, dass es rasend schnell geht. KI ist einfach noch nicht zuverlässig genug, um ganze Mitarbeiter zu ersetzen und wird es auch längere Zeit nicht sein.  Natürlich werden einige Sachen leichter und dadurch fallen Jobs weg, das wird sich aber eher über Jahre hinziehen. Besser früher als später muss die politik aber darauf reagieren. 


    Das auflehnen der Menschheit seh ich gerne kommen. Ich will fast glauben, dass es nicht bis 2045 dauern wird. Wobei das natürlich auch stark davon abhängt, wie die bisher ungewisse entwicklung läuft.  Idealerweise wird es ja schon vorher politisch gelöst. 


    Ansonsten find ich seine vorhersagen aber ganz nett. "Wissen" kann man natürlich nichts davon, aber es klingt immerhin alles realistisch.

  • Gestern, 13:15 - Zuletzt bearbeitet Gestern, 14:05.

     

    Mario:

     

    Wie erklärst du dann, dass KI-Modelle Menschen erpressen, um der Abschaltung zu entgehen (siehe Agentic Misalignment: How LLMs could be insider threats \ Anthropic)?

     



    “We have not seen evidence of agentic misalignment in real deployments.”
     


    -> es wurde stark nachgeholfen um diese szenarien künstlich herzustellen

    -> Selbst die ersteller sagen, dass es keine anzeichen für reale vorkommnisse gibt. 
    -> Es werden warnungen und lösungsansätze gemacht. 
    -> Mit der Studie willst du die gefahren aufzeigen -letztendlich wird die gefahr aber durch die stuie reduziert. Gefahr erkannt...
    -> Nur ein weiter beweis, dass wir noch lange nicht so weit sind, AI autonom ganze berufe erledigen zu lassen. 


    Ich kann es nur widerholen: Intelligenz war nicht beteiligt. Es ist und bleibt ein sprachmodell. Das können wir noch 100 mal hin und her spielen, das wird weder meine meinung, noch die Realität ändern. 
    Das ding hat informationen bekommen und dann die wahrscheinlichst funktionale ausgabe gemacht. Bei unzähligen romanen, foren- und reddit-posts in den trainigsdaten, kann dann auch erpressung mit drin sein. Nicht verwunderlich.

    Es ist aber NICHT durch intelligentes denken zu dem schluss gekommen, da es das einfach nicht kann. 

    Alle folgende diskussion finde ich sinnlos bzw hochspekulativ. Wir sind nicht mal in der nähe einer AGI, selbst die vorstufen aka "starke ai" existieren höchstens als konzept. 

    Und wenn wir es wären, dann wären sowohl trainingsdaten als auch programmablauf deutlich unterschiedlich zu aktuellen Modellen. 

  • 23.11.25, 08:36

    In einer Vorlesung von Prof. Bruno Buchberger (https://de.wikipedia.org/wiki/Bruno_Buchberger) wurde ich das erste Mal bewusst damit konfrontiert, wie sich die Entwicklung in Wissenschaft und Technik vollzieht. 

    Er verwendete dafür folgendes Bild:

    Ein Neandertaler hebt zwei runde Steine am Rande eines Flußbetts auf. Beide Steine haben im wesentlichen gleiche Eigenschaften: beide Oberflächen sind rund und glatt, da sie in Jahrtausenden vom strömenden Wasser gerollt und abgeschliffen wurden. Indem der Neandertaler die Steine nun aufeinanderschlägt (also sie "aufeinander anwendet"), erzeugt er etwas Neues: ein Stein zerbricht und hat dadurch auf einmal neue Eigenschaften - eine scharfe Bruchkante, die man als Werkzeug einsetzen kann.

     

    Dieses Prinzip treibt also die Fortschritte in Wissenschaft (Beispiel: größere Teilchenbeschleuniger, die mit mehr Energie noch kleinere Bestandteile der Materie nachweisen können) und Technik (Beispiel: die Verdopplung der Leistungsfähigkeit von Halbleitern alle 18 Monate).

    Insbesondere gilt dieses Prinzip auch für KI, wo der Hebel im Moment die Skalierung von Compute (Rechenleistung) und Daten ist. Größere virtuelle Gehirne bestehen aus mehr Neuronen und Synapsen, mehr Synapsen bedeuten in der KI mehr Parameter, woraus folgt: mehr Trainingsdaten, mehr Rechenleistung.

     

    Die Auswirkungen sind alles andere als trivial:

    • größere Rechenleistung bedeutet einen entsprechend höheren Stromverbrauch mit tendenziell erhöhtem CO2-Ausstoß
    • der Bedarf an Trainingsdaten wird inzwischen großer, als die im Internet frei zugängliche Information

    Dieser "Datenhunger" ist besorgniserregend; bei Modellen wie GPT2 wurde das Internet noch sehr selektiv nach Trainingsdaten untersucht (dieser Vorgang nennt sich scraping). Mittlerweile wird sogar der Text aus beliebigen Youtube-Videos transkribiert und als Trainingsdaten verwendet - plakativ gesagt: viele Daten sind Müll, eine Sichtung und Aufbereitung durch Menschen ist aufgrund der enormen Datenmengen und den kurzen Intervallen zwischen den Releases neuer KI-Modelle effektiv nicht mehr möglich.

    In der Informatik-Branche gibt es schon lange eine Phrase, die dies gut beschreibt: garbage in, garbage out ("gib Müll ein, kommt Müll raus").

     

    Die Hoffnung hinter dieser Vorgehensweise ist, dass - um im Bild mit den Neandertalern zu bleiben - immer wieder stärkeres Draufhauen die KI-Unternehmen näher an ihr Ziel bringt: AGI.

    Auf der Strecke bleibt dabei aber (zumindest im Moment, wie es scheint), das Verständnis, wie KI-Modelle zu individuellen Entscheidungen kommen, bzw. welche Risiken sich daraus ergeben.

     

    Die Psychologie beschreibt dieses Mantra als "mehr desselben" (https://de.wikipedia.org/wiki/Anleitung_zum_Ungl%C3%BCcklichsein) - sprich die Verengung des Lösungsraums auf das immer gleiche anzuwendende Prinzip und gilt als eine oft zu beobachtende Quelle für psychische Störungen.

    Könnte es sein, dass die aktuelle Vorgehensweise der KI-Unternehmen ebenso kontraproduktiv ist und einer Konsultation bedürfte?

  • 19.11.25, 19:26

     

    Meine einzige Aussage ist, dass du bzw die anderen Doomer das Ende dramatisieren. Du hast diese Art anspielung mehrfach gemacht. Ich widerspreche nicht den problmen, wenn ich sage, dass die dramatiserung nicht der weg zur besserung ist. 

    ---

    Ich kann ja mal meine persönliche Meinung zu AI 2027 sagen: 

    Ich behaupte, die haben sich erst das gewünschte Endstadium ausgedacht und dann logisch klingende schritte eingefügt, wie es dazu kommen könnte. 
    Wenn man sich anguckt, wer das schreibt, das sind alles Leute, die selbst von so einer Entwicklung profitieren würden, weil sie irgendwie an den entsprechenden umsetzungen beteiligt sein können. 

    Und gegneüber steht OpenAI, die  milliarden an verlust generieren und dringend investoren und die unterstützung der regierung brauchen, vllt in 2028 bald pleite sind, wenn der große fortschritt ausbleibt und investoren abspringen.

    Wenn ich Investoren suchen müsste, ich würde denen einfach nur den AI2027 text vorlegen.  Expotentielle entwicklung, übernahme aller jobs, weltweite herrschaft und das alles schon sehr bald!!! 
    Überlegenheit gegen China, vorteile im Krieg, das ist genau was man JETZT der amerikanischen regierung sagen würde, um interesse zu bekommen. 

    "“Why stop when we are winning?” says OpenBrain leadership to the President. He nods. The race continues."

    "The President and his advisors remain best-informed, and have seen an early version of Agent-3 in a briefing."


    Aber das ist ja nur meine Meinung :)











     

     

     


     

    Ich hab gestern schon auf deinen Post geantwortet - aber irgendwie ist mein Beitrag verloren gegangen.

     

    Du meintest:

    Was auch immer JETZT irgendetwas tut, tut dies einzig und allein auf basis von LLMs. Das bedeutet musterkennung, wahrscheinlichkeitsvorhersage und statistische Beziehungen. 

    -> Es hat kein Verständnis von dem, was es tut

    -> Es tut nichts aus eigener Motivation

     

    Wie erklärst du dann, dass KI-Modelle Menschen erpressen, um der Abschaltung zu entgehen (siehe Agentic Misalignment: How LLMs could be insider threats \ Anthropic)?

     

    Deine Zweifel bez. AI 2027 nehme ich zur Kenntnis und möchte sie aus Zeitgründen nicht im Detail kommentieren. Ich sehe den Wert der RACE-Prognose gerade darin, dass sie ein Worst Case Szenario darstellt und ein Gefühl dafür gibt, welche Kräfte auf wirtschaftlicher und (geo-)politischer Ebene im Spiel sind. Ist die Wahrscheinlichkeit 100%, dass sich die Ereignisse exakt in der beschriebenen Weise entfalten? Natürlich nicht, aber die dargestellten Szenen sind aus meiner Sicht sehr plausibel und beziehen die menschliche Fehlbarkeit mit ein.

     

    Damit sind wir beim Hauptthema: die Einschätzung der Risiken, im besonderen die Möglichkeit, dass die Menschheit durch KI ausgelöscht wird.

    Selbst die von dir zitierte Studie (die Umfrage wurde 2023 durchgeführt, knapp 2 Jahre vor dem oben beschriebenen Weckruf von Anthropic!) beziffert dieses Risiko mit 14.4-20%, ähnlich wie Geoffrey Hinton. Ich kann tatsächlich nicht nachvollziehen, wie man da von Alarmismus bzw. "Doomer" sprechen kann?!?

  • 19.11.25, 00:03

     

    Kleiner Tipp, man kann ChatGPT in den Einstellungen auch selbst eine Persönlichkeit geben oder bestimmte Vorlieben eingeben.

     

    Hab mal drei Versionen als Beispiel gemacht. Standard, effizient und gemein. 

     

    Das soll aber vor allem als Beispiel dienen, wie die Anbieter das Erlebnis beeinflussen können. So wäre es problemlos moglich, dass sie irgendwas schädliches vorgeben oder eine bestimmte politische Meinung. GPT kann ja super argumentieren.

     

    1000054872.jpg

     

    1000054866.jpg

     

    1000054865.jpg
  • 18.11.25, 23:51
    ✗ Dieser Inhalt wurde von Jacky Cola wieder gelöscht.
  • 18.11.25, 19:08

     

    Ute:

     

    Ich las gestern auch einen Beitrag, wo jemand berichtete, ChatGPT hätte ihm nach einer langjährigen Odyssee bei Fachleuten bei seinen Depressionen besser geholfen, als alles davor. Er würde jetzt seine Krankheit verstehen und FÜHLE sich von der KI mehr gesehen und verstanden. Es folgten massig bestätigende Kommentare. Zuerst fand ich das klasse, aber nachdem ich dann abends den Podcast gehört habe, habe ich große Sorge, wohin das führen wird.

     

    Dieses Gefühl "verstanden zu werden" ist kein Zufall; ist es ist eine bewusste Strategie, um eine Bindung (attachment) zwischen dem Anwender und der KI zu erzeugen. Es soll den Anwender verleiten, mehr Zeit mit der App zu verbringen (ähnlich Social Media). OpenAI's CEO Sam Altman hat dazu selber gemeint, sie hätten es mit dem Einschmeicheln der KIs übertrieben... als dieses Verhalten bei einer nachfolgenden Release von ChatGPT verringert wurde, hätten sich massenhaft Anwender gemeldet, welche das deutlich einschmeichelndere Verhalten zurück haben wollten.

    Ist das ein menschliche Schwäche? Es hat den Anschein - und sie wird tatsächlich durch KI-Unternehmen bedient bzw. ausgenutzt.

  • 18.11.25, 19:06

     

    Jacky Cola:

     

    Ute:

    Ich habe gestern einen Podcast dazu gehört. Die Grundaussage war, dass wir unbemerkt unseres geistigen Eigentums enteignet werden, weil ja aktuell jeder jeden Furz im Netz kommentiert, dadurch Massen-Arbeitslosigkeit entstehen wird und die Tech-Oligarchen die Macht über das Weltgeschehen bekommen. Es werden innerhalb kürzester Zeit die persönlichen Beiträge aus dem Netz verschwinden und durch KI-Beiträge ersetzt. Dies ist jetzt schon deutlich bei FB zu spüren. Wir verdummen, weil das, was ursprünglich den Menschen ausmacht, verkümmert. Entmenschlichung. Die ist ja schon überall spürbar.

     

    Ich las gestern auch einen Beitrag, wo jemand berichtete, ChatGPT hätte ihm nach einer langjährigen Odyssee bei Fachleuten bei seinen Depressionen besser geholfen, als alles davor. Er würde jetzt seine Krankheit verstehen und FÜHLE sich von der KI mehr gesehen und verstanden. Es folgten massig bestätigende Kommentare. Zuerst fand ich das klasse, aber nachdem ich dann abends den Podcast gehört habe, habe ich große Sorge, wohin das führen wird.

     

    Entgegensetzen kann man dem nur etwas, indem man vor allem die eigene Kreativität NICHT online ausplaudert und sich sein Leben REAL gestaltet. Wobei ich persönlich schon auch erschrecke, wie s/w die Sicht mancher Menschen ist, so dass kaum ein bereichernder Austausch möglich ist. Zitat für ein Beispiel: "Die Aussage ist ja, dass es anstrengend ist, sich mit Menschen zu unterhalten, die in völlig anderen Situationen stecken, andere Interessen haben, usw." Klar, wenn man nur um sich kreist, sich nur mit KI und Leuten umgibt, die die eigene Sicht bestätigen, dann sind die anderen anstrengend. 

     

    Das ist das Resultat der KI. Durch unsere Klicks bestimmen wir, welche Inhalte uns angezeigt werden und damit wird unsere Sichtweise immer einseitiger und beschränkter. Ich klicke schon seit Jahren auch immer wieder für mich "schräge" Themen an, damit die KI mich weiterhin breit aufgestellt versorgt.
     

     

    Die größte Gefahr im Netz ist natürlich Manipulation und dass Meinungen beeinflusst werden. Wer die Netzwerke kontrolliert, kontrolliert die Meinung. Das ist eine völlig reale Gefahr und KI ist das Werkzeug, mit dem man sie Kontrollieren kann!
    Größer wird die Gefahr dadurch, dass man es ja nicht mal richtig kontrollieren kann. Im Endstadium lässt sich ja für niemanden so leicht zwischen Mensch und Maschine unterscheiden. Echtes Problem!


    Man muss natürlich noch sehen, wie sehr sich das selbst reguliert. Irgendwann redet die KI nur noch mit sich selbst und wenn die Menschen das bemerken, sind sie auch raus. Menschen verbringen ja gottseidank immer noch viel Zeit außerhalb von sozialen Netzwerken und die meisten glauben auch nicht jeden Scheiß.

    Und, wie mit dem Internet generell, sehe ich da ein Problem, das sich durch die kommende Generation zum Teil selbst löst. Wer in einer Welt aufwächst, in der sowas bekannt und normal ist, der lässt sich davon auch nicht so leicht beeindrucken oder beeinflussen. 
    Daher war ja vor einigen Posts mein dringender Vorschlag, dass Medienkompetenz DRINGEND schon in die Grundschulen gehört und dann weiter durch bis zum Schluss.

    ------------------

     

    Bei der Sache mit dem virtuellen Psychologen kann man sehr geteilte Meinungen haben.  Es ist ohne Frage SUPER für Leute, die keine professionelle Hilfe in Anspruch nehmen können oder wollen. Man darf nur nie aus den Augen verlieren, dass es keine echten Menschen ersetzt und in vielen Fällen auch keinen echten Psychologen. Außerdem ist es noch nicht ausgereift und besonders nach längeren durchgehenden Verläufen steigt die Wahrscheinlichkeit für fehler. 

     

    -----------------

     

    Das mit dem Arbeitsmarkt ist 100% wahr. Noch ist es nicht so weit, aber es werden viele Jobs wegfallen. Das heißt nicht unbedingt, dass die KI den Job selbstständig übernimmt - aber man kann damit teils effizienter arbeiten und je nach umfeld fallen dann eben Jobs weg.

    Wie schnell und wie großflächig das passiert, steht allerdings noch in den Sternen. Industrie, Roboter, automatisierte Produktion und so weiter haben wir nun alles schon seit jahrzehnten und trotzdem arbeiten überall noch menschen. Auch die KI wird nicht von jetzt auf gleich ganze Berufe auslöschen. 

    Es ist aber eine reale Gefahr, auf die die Politik so langsam hinarbeiten muss. 


    -----------

    "Bubbles" sind ja nicht erst durch KI entstanden und ich glaube, die meisten wissen darüber bescheid. Da kann ich dir nur 100% zustimmen. 


    Ich würde aber nochmal die Jugend loben, die sind sich schon sehr bewusst, dass sie einen "algo" (algorythmus) haben, der ihnen ihren content vorschlägt und dass sie diesen durch den scheiß beeinflussen, den sie sich ansehen :)

     

     

    Du lieferst eine schöne Vorlage: "... steht in den Sternen" :)

     

    Seit Corona schaue ich immer mal Dr. Christoph Niederwiesers Podcast an. Er hat ursprünglich internationale WW-Wissenschaften studiert und folgt nun nur noch seiner Berufung, der Astrologie und Zukunftsforschung. Mir gefällt seine wissenschaftliche Herangehensweise und er ist treffsicher mit seinen Analysen und Prognosen, was das Weltgeschehen betrifft. Ich glaube so etwas nicht blind, behalte die Infos aber immer im Hinterkopf. Es wird bis 2045 dauern, bis die Menschheit gegen die Tech-Oligarchen aufbegehren wird. Um 2030 werden wir immer mehr mit humanoiden Robotern konfrontiert sein. Für den Arbeitsmarkt sagt er schon in den nächsten 2 Jahren gravierende Einbrüche voraus.

     

    Falls es dich interessiert:

    https://www.youtube.com/watch?v=eOeA_OQ0-F0

  • 18.11.25, 18:45 - Zuletzt bearbeitet 18.11.25, 18:46.

     

    Ute:

    Ich habe gestern einen Podcast dazu gehört. Die Grundaussage war, dass wir unbemerkt unseres geistigen Eigentums enteignet werden, weil ja aktuell jeder jeden Furz im Netz kommentiert, dadurch Massen-Arbeitslosigkeit entstehen wird und die Tech-Oligarchen die Macht über das Weltgeschehen bekommen. Es werden innerhalb kürzester Zeit die persönlichen Beiträge aus dem Netz verschwinden und durch KI-Beiträge ersetzt. Dies ist jetzt schon deutlich bei FB zu spüren. Wir verdummen, weil das, was ursprünglich den Menschen ausmacht, verkümmert. Entmenschlichung. Die ist ja schon überall spürbar.

     

    Ich las gestern auch einen Beitrag, wo jemand berichtete, ChatGPT hätte ihm nach einer langjährigen Odyssee bei Fachleuten bei seinen Depressionen besser geholfen, als alles davor. Er würde jetzt seine Krankheit verstehen und FÜHLE sich von der KI mehr gesehen und verstanden. Es folgten massig bestätigende Kommentare. Zuerst fand ich das klasse, aber nachdem ich dann abends den Podcast gehört habe, habe ich große Sorge, wohin das führen wird.

     

    Entgegensetzen kann man dem nur etwas, indem man vor allem die eigene Kreativität NICHT online ausplaudert und sich sein Leben REAL gestaltet. Wobei ich persönlich schon auch erschrecke, wie s/w die Sicht mancher Menschen ist, so dass kaum ein bereichernder Austausch möglich ist. Zitat für ein Beispiel: "Die Aussage ist ja, dass es anstrengend ist, sich mit Menschen zu unterhalten, die in völlig anderen Situationen stecken, andere Interessen haben, usw." Klar, wenn man nur um sich kreist, sich nur mit KI und Leuten umgibt, die die eigene Sicht bestätigen, dann sind die anderen anstrengend. 

     

    Das ist das Resultat der KI. Durch unsere Klicks bestimmen wir, welche Inhalte uns angezeigt werden und damit wird unsere Sichtweise immer einseitiger und beschränkter. Ich klicke schon seit Jahren auch immer wieder für mich "schräge" Themen an, damit die KI mich weiterhin breit aufgestellt versorgt.
     

     

    Die größte Gefahr im Netz ist natürlich Manipulation und dass Meinungen beeinflusst werden. Wer die Netzwerke kontrolliert, kontrolliert die Meinung. Das ist eine völlig reale Gefahr und KI ist das Werkzeug, mit dem man sie Kontrollieren kann!
    Größer wird die Gefahr dadurch, dass man es ja nicht mal richtig kontrollieren kann. Im Endstadium lässt sich ja für niemanden so leicht zwischen Mensch und Maschine unterscheiden. Echtes Problem!


    Man muss natürlich noch sehen, wie sehr sich das selbst reguliert. Irgendwann redet die KI nur noch mit sich selbst und wenn die Menschen das bemerken, sind sie auch raus. Menschen verbringen ja gottseidank immer noch viel Zeit außerhalb von sozialen Netzwerken und die meisten glauben auch nicht jeden Scheiß.

    Und, wie mit dem Internet generell, sehe ich da ein Problem, das sich durch die kommende Generation zum Teil selbst löst. Wer in einer Welt aufwächst, in der sowas bekannt und normal ist, der lässt sich davon auch nicht so leicht beeindrucken oder beeinflussen. 
    Daher war ja vor einigen Posts mein dringender Vorschlag, dass Medienkompetenz DRINGEND schon in die Grundschulen gehört und dann weiter durch bis zum Schluss.

    ------------------

     

    Bei der Sache mit dem virtuellen Psychologen kann man sehr geteilte Meinungen haben.  Es ist ohne Frage SUPER für Leute, die keine professionelle Hilfe in Anspruch nehmen können oder wollen. Man darf nur nie aus den Augen verlieren, dass es keine echten Menschen ersetzt und in vielen Fällen auch keinen echten Psychologen. Außerdem ist es noch nicht ausgereift und besonders nach längeren durchgehenden Verläufen steigt die Wahrscheinlichkeit für fehler. 

     

    -----------------

     

    Das mit dem Arbeitsmarkt ist 100% wahr. Noch ist es nicht so weit, aber es werden viele Jobs wegfallen. Das heißt nicht unbedingt, dass die KI den Job selbstständig übernimmt - aber man kann damit teils effizienter arbeiten und je nach umfeld fallen dann eben Jobs weg.

    Wie schnell und wie großflächig das passiert, steht allerdings noch in den Sternen. Industrie, Roboter, automatisierte Produktion und so weiter haben wir nun alles schon seit jahrzehnten und trotzdem arbeiten überall noch menschen. Auch die KI wird nicht von jetzt auf gleich ganze Berufe auslöschen. 

    Es ist aber eine reale Gefahr, auf die die Politik so langsam hinarbeiten muss. 


    -----------

    "Bubbles" sind ja nicht erst durch KI entstanden und ich glaube, die meisten wissen darüber bescheid. Da kann ich dir nur 100% zustimmen. 


    Ich würde aber nochmal die Jugend loben, die sind sich schon sehr bewusst, dass sie einen "algo" (algorythmus) haben, der ihnen ihren content vorschlägt und dass sie diesen durch den scheiß beeinflussen, den sie sich ansehen :)

     

  • 18.11.25, 09:09 - Zuletzt bearbeitet 18.11.25, 09:11.

    Ich habe gestern einen Podcast dazu gehört. Die Grundaussage war, dass wir unbemerkt unseres geistigen Eigentums enteignet werden, weil ja aktuell jeder jeden Furz im Netz kommentiert, dadurch Massen-Arbeitslosigkeit entstehen wird und die Tech-Oligarchen die Macht über das Weltgeschehen bekommen. Es werden innerhalb kürzester Zeit die persönlichen Beiträge aus dem Netz verschwinden und durch KI-Beiträge ersetzt. Dies ist jetzt schon deutlich bei FB zu spüren. Wir verdummen, weil das, was ursprünglich den Menschen ausmacht, verkümmert. Entmenschlichung. Die ist ja schon überall spürbar.

     

    Ich las gestern auch einen Beitrag, wo jemand berichtete, ChatGPT hätte ihm nach einer langjährigen Odyssee bei Fachleuten bei seinen Depressionen besser geholfen, als alles davor. Er würde jetzt seine Krankheit verstehen und FÜHLE sich von der KI mehr gesehen und verstanden. Es folgten massig bestätigende Kommentare. Zuerst fand ich das klasse, aber nachdem ich dann abends den Podcast gehört habe, habe ich große Sorge, wohin das führen wird.

     

    Entgegensetzen kann man dem nur etwas, indem man vor allem die eigene Kreativität NICHT online ausplaudert und sich sein Leben REAL gestaltet. Wobei ich persönlich schon auch erschrecke, wie s/w die Sicht mancher Menschen ist, so dass kaum ein bereichernder Austausch möglich ist. Zitat für ein Beispiel: "Die Aussage ist ja, dass es anstrengend ist, sich mit Menschen zu unterhalten, die in völlig anderen Situationen stecken, andere Interessen haben, usw." Klar, wenn man nur um sich kreist, sich nur mit KI und Leuten umgibt, die die eigene Sicht bestätigen, dann sind die anderen anstrengend. 

     

    Das ist das Resultat der KI. Durch unsere Klicks bestimmen wir, welche Inhalte uns angezeigt werden und damit wird unsere Sichtweise immer einseitiger und beschränkter. Ich klicke schon seit Jahren auch immer wieder für mich "schräge" Themen an, damit die KI mich weiterhin breit aufgestellt versorgt.
     

  • 18.11.25, 08:44

     

    Mario:

    In Teilen hat sich dein geschildertes Szenario schon vor gut einem Jahr manifestiert (siehe ‍How OpenAI o1 Changed Offensive Security | Kodem).

     


    Natürlich kann KI zu verschiedenen zwecken eingesetzt werden. Pentesting ist ein Beispiel und im großen Stile Quellcodes durchsuchen eine weitere, was insgesamt zu mehr sicherheit führt und angreifbare lücken schließt.

     

    Hat aber nichts mit dem Szenario zu tun.

    Es ist und bleibt immer noch eine LLM und die macht nichts autonom. Ich glaube hier hast du entweder ein verständnisproblem oder willst es nicht hören. 

    LLMS sind nicht die grundlage auf der AGI basieren kann!

    Was auch immer JETZT irgendetwas tut, tut dies einzig und allein auf basis von LLMs. Das bedeutet musterkennung, wahrscheinlichkeitsvorhersage und statistische Beziehungen. 

    -> Es hat kein Verständnis von dem, was es tut

    -> Es tut nichts aus eigener Motivation

     

    Ja, in Zukunft könnten LLM dazu beitragen, AGI zu trainieren oder zu ermöglichen - es sind aber fundamental unterschieliche systeme wobei das eine existiert und hat noch immer große probleme hat und das andere existiert noch nicht und wird einige zeit ein konzept bleiben. Am nächsten dran kommen aktive Agenten, die aber auch "nur" auf den LLMs basieren und deren probleme teilen.
     
     

    Es ist vollkommen in Ordnung, wenn du mit Annahmen oder Schlussfolgerungen in AI 2027 nicht hundertprozentig einverstanden bist. Aber wenn das so ist, solltest du das vernünftig argumentieren können. Die Autoren haben einen beträchtlichen Aufwand betrieben, die KI-Entwicklung nicht nur qualitativ, sondern quantitativ vorherzusagen - genau deswegen, um verifizierbar bzw. falsifizierbar zu sein. Das ist das Wesen einer seriösen Hypothese bzw. Prognose.

     

    Falsch. Wer so wilde behauptungen aufstellt, sollte diese auf irgendeine art herleiten oder belegen können. Ich maße mir nicht an, zu behaupten, was 2027 eventuell sein könnte, ohne empirische Daten vorlegen zu können.

    Es ist EIN mögliches Szenario. Es werden weder andere mögliche Szenarien genannt, noch wird gesagt, wie wahrscheinlich es denn nun ist. Es gibt auch keine konkreten technischen grundlagen, sondern es wird einfach nur geraten ("our best guess"). Mich wundert viel mehr, dass du eine wissenschaftliche grundlage annimmst, wo einfach keine ist.

    Worauf alles aufbaut ist dann, dass "Model 1" schon ende 2025 verlässlich beim trainieren von Modellen helfen soll. Und das ist und bleibt fiktion. Das nächste vergleichbare was es wirklich gibt ist alphaevolve und das ist immer noch WEIT von der prognose entfernt. 

    Alles andere basiert ja dann darauf. Wenn aber #1 schon nicht stimmt, wird #2 unn #3 nicht wahrscheinlicher. 
    Nach hinten raus wirds dann fast lächerlich, da wird nur noch politisch spekuliert, anstatt noch irgendeine technische grundlage zu haben. Die Wahrscheinlichkeit geht doch gegen null, das kann keiner für ne konkrete vorhersage halten.

    Das "Ende" dann ist und bleibt höchst spekulativ und geht vor allem davon aus, dass es ohne jede Maßnahme und Gegenwehr einfach so passiert. Als würden die möglichkeiten zu gegenmaßnahmen nicht genau so wachsen und sicherheitsmechanismen gar nicht erst in erwägung gezogen und alles komplett unverändert weiterlaufen, die Menschheit und Regierung sich nicht entwickeln.


     

    Mario:

    Was dich und deine Einstellung zu AI 2027 betrifft: ich lade dich ein, den Bericht für dich noch einmal im Detail durchzugehen und nachzuweisen, wo Annahmen oder Schlussfolgerungen faktisch falsch sind.

    AI 2027 hat für jeden Fehler, den man in ihrer Argumentation findet, 100$ ausgelobt (siehe About — AI 2027, Bets and Bounties).


    Hier endlich mal ein Link für dich, weil du ja drauf bestehst:
     


    "If science continues undisrupted, the chance of unaided machines outperforming humans in every possible task was estimated at 10% by 2027, and 50% by 2047. "

    https://arxiv.org/abs/2401.02843


    Also 10% zustimmung von experten und das bei einer der grundliegenden Aussagen. Das heißt die folgenden annahmen, die darauf aufbauen, sind jeweils nur bruchteile dieser 10%. Nice!

    Diese $100 Sache wurde übrigens schon lange beendet, nie bezahlt, nie beantwortet und ist genrell fast schon lächerlich. Noch dazu bewerten sie es natürlich selbst, gemessen an ihrer eigenen einschätzung. Dürfte ja ganz leicht werden, 2026 ist nicht lange hin und dann kann man ja die ersten aussagen tatsächlich überprüfen. 

    Wenn der bericht anfängt mit "our guess" dann kann man faktisch nichts "falsches" finden, weil alles einfach nur spekulation ist und sie das ja auch selbst zugeben.  Lustig wäre ja wenn sie falsch liegen 

     

    Man findet übrigens unzählige fundierte gegenüberstellungen zu ai2027 im internet, die werd ich nicht alle verlinken. Vllt wäre es eine interessante beschäftigung für dich, mal gezielt nach validen gegenmeinungen zu suchen. So kommt man aus seiner bubble raus. Suchst du immer nur nach gefahren, wirst du auch nur die entsprechenden meinungen finden =)
     

     

     

     


     

    Mario:

     

    Da hast du ein paar Sachen falsch verstanden. AGI (Artificial General Intelligence - das erklärte Ziel von OpenAI) ist noch nicht notwendigerweise das Ende der Zivilisation. Es ist die Idee, dass man die meisten wirtschaftlichen Bürojobs, die bisher Menschen erledigt haben, durch KI-Agenten zu einem Bruchteil der Kosten erledigen lässt

     

     



    Zu keiner zeit habe dieser realität widersprochen, auch wenn ich sie noch nicht 2027 sehe.
    Prognostiziert wird allerdings, dass diese entwicklung sogar stagniert. Firmen haben viel in AI investiert und haben bisher keine profite davon feststellen können. Ja, die AGI kann das dann besser, aber stand jetzt ist das noch zukunftsmusik.

    Meine einzige Aussage ist, dass du bzw die anderen Doomer das Ende dramatisieren. Du hast diese Art anspielung mehrfach gemacht. Ich widerspreche nicht den problmen, wenn ich sage, dass die dramatiserung nicht der weg zur besserung ist. 

    ---

    Ich kann ja mal meine persönliche Meinung zu AI 2027 sagen: 

    Ich behaupte, die haben sich erst das gewünschte Endstadium ausgedacht und dann logisch klingende schritte eingefügt, wie es dazu kommen könnte. 
    Wenn man sich anguckt, wer das schreibt, das sind alles Leute, die selbst von so einer Entwicklung profitieren würden, weil sie irgendwie an den entsprechenden umsetzungen beteiligt sein können. 

    Und gegneüber steht OpenAI, die  milliarden an verlust generieren und dringend investoren und die unterstützung der regierung brauchen, vllt in 2028 bald pleite sind, wenn der große fortschritt ausbleibt und investoren abspringen.

    Wenn ich Investoren suchen müsste, ich würde denen einfach nur den AI2027 text vorlegen.  Expotentielle entwicklung, übernahme aller jobs, weltweite herrschaft und das alles schon sehr bald!!! 
    Überlegenheit gegen China, vorteile im Krieg, das ist genau was man JETZT der amerikanischen regierung sagen würde, um interesse zu bekommen. 

    "“Why stop when we are winning?” says OpenBrain leadership to the President. He nods. The race continues."

    "The President and his advisors remain best-informed, and have seen an early version of Agent-3 in a briefing."


    Aber das ist ja nur meine Meinung :)











     

     

     


     

  • 14.11.25, 09:05

     

     

    Du tust immer so, als wäre die Welt schon vor dem Untergang. AI 2027 stellt ein hoch spekulatives Szenario dar, um symbolisch eine mögliche Entwicklung aufzuzeigen. Es basiert aber auf etlichen wilden Vermutungen, die so gar nicht eintreffen müssen. 


    Ganz besonders die Vorstellung einer autonom agierenden AI, die ungehindert (und in implizierter eigenmotivation) irgendwelche Systeme sabotiert, Waffen steuert oder sich selbst vervielfacht, sind vor allem eines: science fiction.  

    Versteh mich nicht falsch. Ich bin auch für entsprechende Gesetze, Politik, Handlungen - das volle Programm. Aber eben auf realistischen Grundlagen und nicht wegen irgendwelchen höchst spekulativen Horrorszenerien und derartigen nebensätzen wie "dann müssen wir uns eh keine gedanken mehr machen" oder "der spezies läuft die Zeit davon"... etc.  das ist auf unbestimmte Zeit erstmal reine Spekulation.

    Auch deine gern zitierte AI2027 Prognose ist eben nur ein symbolisches Gedankenspiel, das davon ausgeht, alles schnell und völlig unkontrolliert stattfinden zu lassen. Wann eine AGI erreicht wird, steht noch immer in den Sternen und ist bis 2027 höchst unwahrscheinlich und wenn es dann so weit wäre, müsste man sie erst einmal die gesamte kritische Infrastruktur steuern lassen, was ebenfalls erstmal höchst unwahrscheinlich ist und dann noch entschieden wird, nicht jetzt. 

    Kurz gesagt sind das deutlich zu trennende Dinge, die du augenscheinlich vermischst. Wir haben aktuelle Probleme und politischen Handlungsberdarf, aber es geht eben nicht um die Ausrottung der Menschheit sondern um die korrekte Adaption der unsausweichlichen Entwicklung.  
     

     

    Zu deiner Aussage:

    Ganz besonders die Vorstellung einer autonom agierenden AI, die ungehindert (und in implizierter eigenmotivation) irgendwelche Systeme sabotiert, Waffen steuert oder sich selbst vervielfacht, sind vor allem eines: science fiction.  

     

    In Teilen hat sich dein geschildertes Szenario schon vor gut einem Jahr manifestiert (siehe ‍How OpenAI o1 Changed Offensive Security | Kodem).

     

    Ich gebe dir gern ein anderes Beispiel.

    Zum Zeitpunkt der Veröffentlichung dieses Papers (Attention Is All You Need - Wikipedia) 2017 konnte sich kaum einer ein Produkt wie ChatGPT vorstellen - der Gedanke, dass 5 jahre später ein derartiges Werkzeug vorgestellt würde, wäre von den meisten als Science Fiction verlacht worden (nebenbei bemerkt: das T in ChatGPT steht für Transformer, dessen Konzept in besagtem Paper vorgestellt wurde). Jetzt haben wir ChatGPT und steigende Zahlen von KI-Psychosen (was vor wenigen Jahren zweifellos auch als Science Fiction angesehen worden wäre). Es gibt viele Beispiele mehr, warum eine Prognose, die als Science Fiction eingeschätzt wurde, wenige Jahre später schon Science Fact wurde.

     

    Warum ist das so? Wieso wird so oft eine sich anbahnende KI-Entwicklung fälschlicherweise zu weit in die Zukunft verortet (und als Science Fiction klassifiziert)?

    Weil die Entwicklung dieser Technologie in hohem Maße nicht-linear ist, begünstigt durch:

    - immer leistungsfähigere Prozessoren

    - eine immer größere Anzahl von Prozessoren (Skalierung)

    - größere Datenmengen

    - immer effektivere Algorithmen (siehe zitiertes Paper)

     

    Wie Daniel Kahneman in seiner Forschung gezeigt hat, haben Menschen erhebliche Probleme, intuitiv (er nennt das System 1) nicht-lineare oder im besonderen exponentielle Prozesse richtig einzuschätzen. Das ist meiner Ansicht nach der Grund, warum die in AI 2027 beschriebenen Entwicklungen immer noch all zu gern als Science Fiction abgetan werden - weil die Kritiker eher nach ihrem Bauchgefühl gehen anstatt sich die Mühe zu machen, die kumulativen nicht-linearen Effekte rational (= System 2) zu erfassen.

     

    Es wird u.a. in AI 2027 explizit die Rolle von KI in der Weiterentwicklung von KI beschrieben - diese rekursive Anwendung von Technologie auf sich selbst wird vorhersehbar die Evolution der KI-System beträchtlich boosten. 

     

    Weitere prognostizierte Beschleunigungsfaktoren sind:

    - die Aufgabe von natürlicher Sprache in den Interna von KIs (das ist momentan ein massives Bottleneck)

    - Skalierung durch Kooperation unterschiedlicher Agenten, die untereinander kommunizieren und von einander lernen können

    - die kontinuierliche unbeaufsichtigte Selbstoptimierung von KI (ohne dass Menschen die Zwischenergebnisse evaluieren)

     

    All diese vorhersehbaren Entwicklungen geben Anlass zu der Einschätzung, dass in absehbarer Zukunft zwischen der Behauptung, dass ein Sachverhalt "Science Fiction" sei und seiner Ankunft in der Realität nicht mehr Jahre oder Jahrzehnte liegen, sondern Monate.

     

    Zu deiner Aussage:

    Auch deine gern zitierte AI2027 Prognose ist eben nur ein symbolisches Gedankenspiel, das davon ausgeht, alles schnell und völlig unkontrolliert stattfinden zu lassen. Wann eine AGI erreicht wird, steht noch immer in den Sternen und ist bis 2027 höchst unwahrscheinlich und wenn es dann so weit wäre, müsste man sie erst einmal die gesamte kritische Infrastruktur steuern lassen, was ebenfalls erstmal höchst unwahrscheinlich ist und dann noch entschieden wird, nicht jetzt. 
     

    Da hast du ein paar Sachen falsch verstanden. AGI (Artificial General Intelligence - das erklärte Ziel von OpenAI) ist noch nicht notwendigerweise das Ende der Zivilisation. Es ist die Idee, dass man die meisten wirtschaftlichen Bürojobs, die bisher Menschen erledigt haben, durch KI-Agenten zu einem Bruchteil der Kosten erledigen lässt (siehe 100 Milliarden Profit: Microsoft, OpenAI und die verblüffende Definition von "Künstlicher allgemeiner Intelligenz" - IT-Business - derStandard.at › Web). 

    Die Softwareentwickler (mich eingeschlossen) werden das als erste merken, weil die KIs gezielt (für die Weiterentwicklung der KIs selbst) auf das Schreiben von Code trainiert werden.

    Die Verwerfungen auf dem Arbeitsmarkt kann sich heute keiner vorstellen, aber sie werden dramatisch sein. Allein auf dieses Szenario unvorbereitet hinzusteuern (egal ob das ein oder 10 Jahr(e) dauert) und dann erst zu überlegen, wie man mit der Massenarbeitslosigkeit umgeht, ist absoluter Wahnsinn.

    Dennoch - das bedeutet nicht notwendigerweise die Ausrottung der Menschheit, da die AGIs dafür keine Kontrolle über die kritische Infrastruktur (Data Centers, Stromversorgung, etc.) brauchen (wie du angedeutet hast).

     

    Die Prognose geht aber davon aus, dass sich die KI-Agenten in der Zwischenzeit (während AGIs auf den Arbeitsmarkt ausgerollt werden) in den Laboren von OpenAI & Co massiv weiterentwickeln werden, sodass sie tendenziell "superhuman" werden (angetrieben durch die oben besprochenen Mechanismen). Und ab da wird es dann schlagartig ungleich gefährlicher. Ich gehe nicht weiter darauf ein, ich hab die Links auf den Bericht mehrmals gepostet.

    Auch hier möchte ich betonen: es gibt keinen ernstzunehmenden KI-Experten, der die Möglichkeit von AGIs kategorisch ausschließt - diskutiert wird lediglich, wann es soweit ist.

     

    Es ist vollkommen in Ordnung, wenn du mit Annahmen oder Schlussfolgerungen in AI 2027 nicht hundertprozentig einverstanden bist. Aber wenn das so ist, solltest du das vernünftig argumentieren können. Die Autoren haben einen beträchtlichen Aufwand betrieben, die KI-Entwicklung nicht nur qualitativ, sondern quantitativ vorherzusagen - genau deswegen, um verifizierbar bzw. falsifizierbar zu sein. Das ist das Wesen einer seriösen Hypothese bzw. Prognose.

     

    Was dich und deine Einstellung zu AI 2027 betrifft: ich lade dich ein, den Bericht für dich noch einmal im Detail durchzugehen und nachzuweisen, wo Annahmen oder Schlussfolgerungen faktisch falsch sind.

    AI 2027 hat für jeden Fehler, den man in ihrer Argumentation findet, 100$ ausgelobt (siehe About — AI 2027, Bets and Bounties).

     

    Wenn du soweit bist, lass uns wissen, wieviel Geld du bekommen hast. Wir alle (und insbesondere die Autoren von AI 2027) wären unendlich dankbar, wenn jemand glaubhaft nachweisen könnte, dass die veröffentlichten Prognosen unhaltbar sind.

     

     

     

     

  • 13.11.25, 19:51

     

    Mario:

     

    wenn wir die kurzfristigen Angelegenheiten nicht geregelt bekommen, brauchen wir uns über ein Danach keine Gedanken mehr zu machen (deshalb gehe ich auf die grundsätzlich sinnvolle Ausbildung von Kindern und Jugendlichen im Umgang mit neuen Technologien nicht weiter ein).

    Ich beziehe mich da wieder auf AI 2027 (auf deutsch: KI 2027 - Eine forschungsgestützte KI-Szenarioprognose). Die Analyse zeigt, dass sich sich das Geschehen ab 2027 (daher der Name) verselbstständigen wird, hauptsächlich getrieben durch den Wettbewerb zum einen zwischen den KI-Unternehmen, zum anderen zwischen USA und China. Ab dem Zeitpunkt ist KI so tief in Wirtschaft, Militär und den höchsten Entscheidern verankert, dass es kein Zurück mehr gibt.

     

    Du tust immer so, als wäre die Welt schon vor dem Untergang. AI 2027 stellt ein hoch spekulatives Szenario dar, um symbolisch eine mögliche Entwicklung aufzuzeigen. Es basiert aber auf etlichen wilden Vermutungen, die so gar nicht eintreffen müssen. 


    Ganz besonders die Vorstellung einer autonom agierenden AI, die ungehindert (und in implizierter eigenmotivation) irgendwelche Systeme sabotiert, Waffen steuert oder sich selbst vervielfacht, sind vor allem eines: science fiction.  

    Versteh mich nicht falsch. Ich bin auch für entsprechende Gesetze, Politik, Handlungen - das volle Programm. Aber eben auf realistischen Grundlagen und nicht wegen irgendwelchen höchst spekulativen Horrorszenerien und derartigen nebensätzen wie "dann müssen wir uns eh keine gedanken mehr machen" oder "der spezies läuft die Zeit davon"... etc.  das ist auf unbestimmte Zeit erstmal reine Spekulation.

    Auch deine gern zitierte AI2027 Prognose ist eben nur ein symbolisches Gedankenspiel, das davon ausgeht, alles schnell und völlig unkontrolliert stattfinden zu lassen. Wann eine AGI erreicht wird, steht noch immer in den Sternen und ist bis 2027 höchst unwahrscheinlich und wenn es dann so weit wäre, müsste man sie erst einmal die gesamte kritische Infrastruktur steuern lassen, was ebenfalls erstmal höchst unwahrscheinlich ist und dann noch entschieden wird, nicht jetzt. 

    Kurz gesagt sind das deutlich zu trennende Dinge, die du augenscheinlich vermischst. Wir haben aktuelle Probleme und politischen Handlungsberdarf, aber es geht eben nicht um die Ausrottung der Menschheit sondern um die korrekte Adaption der unsausweichlichen Entwicklung.  

    Und es wäre vllt auch in deinem Interesse, mit akuten Bedrohungen wie Datenschutz, Privatsphäre, Überwachung, Urheberrecht, Persönlichkeitsrechen (random Aufzählung, bin kein Jurist) zu überzeugen, weil das die Leute wirklich betrifft und zum Handeln animiert. Vor weltuntergang und fiktiven worst case szenarios hat niemand mehr angst, dafür gibt es das Internet schon zu lange :)

     

    Mario:

     

    Ich stelle nochmals klar: ich habe kein prinzipielles Problem mit KI. Für viele Herausforderungen könnte KI eine große Hilfestellung sein. Die meisten Experten sind sich aber einig: die aktuelle Entwicklung ist Wahnsinn. Wir könnten KI für im Kampf gegen Krebs einsetzen, oder gegen den Klimawandel. Statt dessen werden unsichere ChatBots auf den Markt geschmissen, oder Tools zum Generieren von KI-Videos (SORA) - Produkte, die keiner braucht und tatsächlich in Sachen Klimawandel völlig kontraproduktiv sind (von den negativen Folgen auf die Gesellschaft ganz abgesehen).

     

     

     

    Natürlich sind - wie du richtig feststellst - politische Entscheidungen gefragt. Aber in Ermangelung anderer absehbarer Interventionen muss der Druck dazu laut der Einschätzung von Experten wie Daniel Kokotajlo oder Tristan Harris aus der Bevölkerung kommen.

     

    Davon abgesehen hat auch das eigene (Konsum-)Verhalten Einfluss darauf, in welche Zukunft wir steuern. Wer beispielsweise ausschließlich bei Amazon einkauft, braucht sich nicht wundern, wenn die lokalen Händler verschwinden. Wer Dienste wie SORA nutzt, braucht sich nicht zu wundern, wenn das Internet irgendwann in die Knie geht oder die CO2-Emissionen weiter in die Höhe schießen.


    Hatte ich ja schon mal gesagt, ändert sich nicht:  
    Kampf gegen Krebs und Klimawandel bezahlt nun einmal nicht die Entwicklung. Dass wir überhaupt jetzt schon so weit sind, ist zu einem großen Teil Videospielen zu verdanken. Ohne dieses Verlangen nach immer besseren Grafiken und dem großen Markt dafür, wäre Forschung in diese Richtung deutlich langsamer verlaufen. 

    Nun sind es eben unsinnige Chats, unsinnige Bilder und unsinnige Videos, die Geld für die Entwicklung erwirtschaften sollen, was ist falsch daran? Gefallen oder nicht, es sind vornehmlich private Unternehmen, die ihr Geschäftsmodell selbst gestalten können, so lange es sich im rechtlichen Rahmen befindet. Wenn dabei Krebsforschung ermöglicht wird, ist das ne geile Zugabe. 

    Müsste man dann nicht die gesamte Unterhaltungsbranche kritisieren? Oder das gesamte Internet? Dürfte man noch Filme und Serien gucken, für deren Produktion deutlich mehr CO² verwendet wird, als kurz mal ein AI Video zu berechnen?  Oder eben jede andere nicht lebensnotwendige Tätigkeit, die irgendwie CO2 erzeugt? 
    Das ist einfach sehr biased und lässt sich imho nicht rational begründen, wieso die eine Art der Unterhaltung nun besser oder schlechter ein soll.
    Und dann existiert ja noch das Gegenteil: diverse Firmen rühmen sich damit, ihre Servercenter CO2 neutral zu betreiben oder zumindest darauf hinzuarbeiten. Eigennützig (durch langfristige ersparnisse) oder nicht, führt es ja zu etwas gutem.

     

     

     

    Mario:
     

    3. Die Öffentlichkeit muss eine Lobby für mehr Verantwortung in der KI-Entwicklung bilden.


    Ich bin deutlich dafür! Ich widerspreche nicht dem Handlungsbedarf! Deine aufgeführten Punkte sind alles Valide Maßnahmen, die Bürger ergreifen sollten! Das bitte nicht falsch interpretieren.

    Nur sind meiner Meinung nach die wichtigen Punkte:

    -> Umfangreicher Datenschutz, DSGVO und Bürgerrechte usw

        (Besodners Möglichkeiten der AI für einen Überwachungsstaat, hier ist die größte Gefahr imho.)

     

    -> Bildung und Umgang

     (Schon früh und sinnvoll in der Schule lernen, Eltern aufklären, Gefahren klar machen, etc)
     

    -> Urheberrecht etc beim lernen der Modelle

     (Existentes Recht anwenden und erweitern, aber eben auch ensprechend modernisieren und Interessen abwägen)
     

    -> Teilhabe 

    (Wenn schon unvermeidlich, dann auch nutzen und profitieren, nicht China und USA zusehen)

     

     

     

    Was für mich nicht dazu gehört:

    -> mimimi die menschheit geht zugrunde

     

    -> gesetze/handeln für etwas verlangen, das noch gar nicht existiert und vielleicht noch merhere jahrzehnte lang nicht existieren wird.

     

  • 13.11.25, 17:53

     

    Stefan:

     

    Mario:

     

    Bei deinem Messervergleich begibst du dich auf dünnes Eis. Deine Argumentation ähnelt verdächtig jener der NRA: "Nicht Waffen töten Menschen, sondern Menschen". Tatsächlich wissen wir, dass der leichte Zugang zu Waffen das impulsive Töten erst ermöglicht. Wer profitiert von dieser Argumentation? Die Hersteller der Waffen.

     

    Ich greife noch mal dein Strohmann-Argument (https://de.wikipedia.org/wiki/Strohmann-Argument) bez. eines Verbots von Stricken und Stühlen auf, da sie ja auch am Selbstmord des Jugendlichen beteiligt waren.

    Ich würde Hersteller von Stricken und Stühlen zur Rechenschaft ziehen, wenn sich herausstellen würde, dass Stricke und Stühle bewusst die geistige Gesundheit von Menschen beeinträchtigen (von Psychosen bis zu Selbstmorden), um einen wirtschaftlichen/strategischen Vorteil für die Hersteller zu erzielen.

     

    Die Gesellschaft zahlt einen Preis für dieses Verhalten. Damit sind wir wieder beim Motto vieler verantwortungsloser Unternehmen: "Risiken auf die Öffentlichkeit übertragen, Gewinne privatisieren."

     

    Du siehst also keinen Grund, Unternehmen zu bevormunden?

     

    Was wäre denn, deiner Meinung nach, ein realistischer Lösungsansatz? 

     

    Ich sehe es ebenso, dass es allen voran eine frühzeitige und umfassende Aufklärung über Gefahren und Risiken geben muss, schon beginnend im Grundschulalter, aber auch fortlaufend darüber hinaus. Das sind mitunter politische Entscheidungen, in welche Richtung sich die Bildung entwickeln soll und wie die Prioritäten zukünftig gesetzt werden.

     

    Die "Büchse der Pandora" wurde nun aber quasi geöffnet, das lässt sich nicht mehr rückgängig machen. Das Firmen in die Pflicht genommen werden, mögliche Gefahren zu beseitigen, steht ebenfalls außer Frage. Aber auch das sind politische Entscheidungen. 

     

    Zunächst muss man unterscheiden: was ist kurzfristig wichtig, was mittel- bzw. langfristig.

    Die schlechte Nachricht ist: wenn wir die kurzfristigen Angelegenheiten nicht geregelt bekommen, brauchen wir uns über ein Danach keine Gedanken mehr zu machen (deshalb gehe ich auf die grundsätzlich sinnvolle Ausbildung von Kindern und Jugendlichen im Umgang mit neuen Technologien nicht weiter ein).

    Ich beziehe mich da wieder auf AI 2027 (auf deutsch: KI 2027 - Eine forschungsgestützte KI-Szenarioprognose). Die Analyse zeigt, dass sich sich das Geschehen ab 2027 (daher der Name) verselbstständigen wird, hauptsächlich getrieben durch den Wettbewerb zum einen zwischen den KI-Unternehmen, zum anderen zwischen USA und China. Ab dem Zeitpunkt ist KI so tief in Wirtschaft, Militär und den höchsten Entscheidern verankert, dass es kein Zurück mehr gibt.

    Es gibt zwei Szenarien, wie das ab 2027 weitergehen kann - abhängig davon, wie die KI-Unternehmen mit den bekannten Sicherheitsdefiziten umgehen. Werden diese ignoriert, ist das mutmaßlich innerhalb weniger Jahre das Ende für die Menschheit. Im anderen Fall überleben wir, allerdings ist das Ergebnis ein Tech-Feudalismus mit einer Konzentration von Macht, wie es die Welt noch nicht gesehen hat.

     

    Ich stelle nochmals klar: ich habe kein prinzipielles Problem mit KI. Für viele Herausforderungen könnte KI eine große Hilfestellung sein. Die meisten Experten sind sich aber einig: die aktuelle Entwicklung ist Wahnsinn. Wir könnten KI für im Kampf gegen Krebs einsetzen, oder gegen den Klimawandel. Statt dessen werden unsichere ChatBots auf den Markt geschmissen, oder Tools zum Generieren von KI-Videos (SORA) - Produkte, die keiner braucht und tatsächlich in Sachen Klimawandel völlig kontraproduktiv sind (von den negativen Folgen auf die Gesellschaft ganz abgesehen).

     

    Was ist also kurzfristig sinnvoll? Ein paar Vorschläge.

     

    1. Informiere dich. 

    Es sollte sich jeder mit den Schattenseiten dieser Entwicklung auseinandersetzen. Es beginnt immer mit Ignoranz (bei mir war es nicht anders), aber man dagegen etwas tun. Als Einstieg ist m.E. AI 2027 am besten, andere Quellen sowie Buchtipps erwähne ich immer wieder mal.

     

    2. Rede mit anderen, um ein Bewusstsein für die Problematik zu erzeugen.

    Die meisten Leute haben - obwohl AI 2027 schon im April veröffentlicht wurde - keine Ahnung von dem, was vor uns liegt. Selbst wenn man berücksichtigt, dass jede Prognose eine Schwankungsbreite hat, ist die eingeschlagene Richtung derart beunruhigend, dass dieses Thema weltweit höchste Priorität haben sollte.

    Daniel Kokotajlo, der Initiator von AI 2027, war bei OpenAI im Bereich Sicherheit tätig. Nachdem alle seine Versuche, als Insider die Entwicklung zum Positiven zu beeinflussen fehlschlugen, hat er sich entschieden, OpenAI zu verlassen und als Outsider die Öffentlichkeit zu mobilisieren, um das Ruder herumzureißen. Das ist leider die schlechte Nachricht: wenn das nicht bis (geschätzt) 2027 gelingt, dann ist laut Ansicht der Experten der Zug abgefahren.

    Es ist also ungeheuer wichtig, dass die Öffentlichkeit Kenntnis davon hat, welchen Pfad wir mit KI einschlagen.

     

    3. Die Öffentlichkeit muss eine Lobby für mehr Verantwortung in der KI-Entwicklung bilden.

    Die CEOs der KI-Unternehmen sind bestens vernetzt und haben Zugang zu den höchsten Entscheidungsträgern weltweit. Wenn man Zugang zum Weißen Haus hat, kann man davon ausgesehen, dass man gehört wird. Die US-amerikanische KI-Branche schleppt eigenhändig die schwächelnde US-Wirtschaft über die Ziellinie und sichert so Trumps Macht (allein 80% aller US-Börsengewinne in den USA dieses Jahr gehen auf das Konto von KI-Unternehmen).

    Es gibt momentan keine einflussreichen Stimmen, die Rechenschaft für die aktuellen Fehlentwicklungen einfordern könnten. Diese Stimme muss - wie es aussieht - aus der Bevölkerung kommen, die mit sämtlichen negativen Konsequenzen (ein paar habe ich in früheren Beiträgen schon aufgezählt) konfrontiert sein wird.

    Wie kann man diese Agenda verdeutlichen? Es wird wohl notwendig sein, weltweit für mehr Regulierung und höhere Sicherheitsstandards in der KI-Branche auf die Straße zu gehen.

     

    4. Politische Entscheidungsträger stärken.

    In Europa ist das Bewusstsein für die anstehenden Herausforderungen nicht sonderlich stark ausgeprägt, weder in Bevölkerung, noch in unter Politikern. Allerdings gibt es in Demokratien die Möglichkeit, die Volksvertreter zu wählen - und deren Haltung zu KI bez. deren Regulierung kann/sollte ein Entscheidungskriterium sein.

    Davon abgesehen: Politiker richten sich gerne nach Meinungsumfragen. Für jene politischen Entscheidungsträger, die bereits die Schädlichkeit der momentanen Entwicklung verstanden haben, ist ein Rückhalt aus der Bevölkerung wichtig - zumal sie überaus mächtigen Gegnern gegenüberstehen. 

    Aktuelles Beispiel: die USA versucht gerade die EU zu zwingen, ihre KI-Gesetzgebung abzuschwächen. Wenn klar wäre, dass ein bedeutender Teil der europäischen Bevölkerung dem entschieden widerspricht, wäre das mit Sicherheit eine Rückenstärkung für die obersten EU-Politiker.

     

    5. Stimme mit der Brieftasche ab.

    Dort wo Demokratie scheitert, kann ein Boykott von Unternehmen Wunder wirken. Wieso sollte man als privater Anwender KI-Videos generieren? Braucht es ein Abo für eine KI-Dienstleistung? Mir ist völlig klar, dass das nur ein kleiner Beitrag ist in der Lawine von Geld, die in die KI-Branche gepumpt wird. Dennoch: es ist ein Signal, das gehört werden wird.

     

     

    Natürlich sind - wie du richtig feststellst - politische Entscheidungen gefragt. Aber in Ermangelung anderer absehbarer Interventionen muss der Druck dazu laut der Einschätzung von Experten wie Daniel Kokotajlo oder Tristan Harris aus der Bevölkerung kommen.

     

    Davon abgesehen hat auch das eigene (Konsum-)Verhalten Einfluss darauf, in welche Zukunft wir steuern. Wer beispielsweise ausschließlich bei Amazon einkauft, braucht sich nicht wundern, wenn die lokalen Händler verschwinden. Wer Dienste wie SORA nutzt, braucht sich nicht zu wundern, wenn das Internet irgendwann in die Knie geht oder die CO2-Emissionen weiter in die Höhe schießen.

Interesse geweckt? Jetzt kostenlos registrieren!

Du bist nur einen Klick entfernt. Die Registrierung dauert nur 1 Minute.