Um mitzumachen, melde dich bitte an.
  • Kann eine KI selbst was wollen?

    Diskussion · 33 Beiträge · 486 Aufrufe
    Stefan aus Linz

    In der Gruppe Künstliche Intelligenz gibt es einen Aufsatz von Vincent Müller, einem deutschen Philosophen, wo im letzten Kapitel folgender Satz zu lesen ist:

     

    Eine der vielen offenen Fragen ist, ob ein nicht-lebendes System »echte Ziele« in dem Sinne haben kann, der für Handlungsentscheidungen und Verantwortung erforderlich ist, d.h. Ziele, die für das System einen subjektiven Wert haben und die das System reflektierend als wichtig erkennt.

     

    Neulich könnte es (fast) soweit gewesen sein, als in einem Testszenario eine KI angeblich erpresst und bedroht hat.


    https://futurezone.at/science/ki-hat-nutzer-aus-selbstschutz-erpresst-und-bedroht-anthropic-claude-test-forschung-kuenstliche/403043894

     

    Was meint ihr? Sind wir kurz davor KIs zu erschaffen, die aus eigenem Antrieb eigene Ziele verfolgen? Kann das bei einem nicht-biologischen System überhaupt möglich sein? Braucht es dazu Bewusstsein?

    26.05.25, 10:39 - Zuletzt bearbeitet 26.05.25, 10:40.

Beiträge

  •  

    Stefan:

    Will's wer nachrechnen?

    https://chatgpt.com/share/6837378f-2204-800f-8ff5-87ee995bee4b

     

    250528-181828.jpg

     

    Aus dem "Nachdenkprotokoll": Für die Berechnung des Zinses nehmen wir die ACT/ACT-Methode an, bei der die Zinsen täglich auf Basis von 365 Tagen (bzw. 366 für Schaltjahre) berechnet werden. Der Endbetrag beträgt 121,92 € (gerundet auf Cent). Der Zinssatz wurde mit einer jährlichen Verzinsung und Zinseszins über die Jahre berechnet. Quellenangabe: "Day count convention ACT/ACT" auf Wikipedia oder ähnlich.

    Aber gib chatgpt die Aufgabe, die Zinsdifferenz bei einer Finanzierung über 10 Jahre in Höhe von 1,7 Prozent und 5,1 Prozent zu errechnen. In dem Zeitraum soll das Darlehen getilgt sein. Wie viel mehr kostet das teuere Darlehen im Verhältnis zum billigeren.

     

    An dieser Aufgabe scheiterte chatgpt ohne Training vor wenigen Wochen. Weitere Negativ-Beispiele findest Du auf meiner Homepage zum Thema Bevölkerungsentwicklung.

  •  

    Stefan:

     

    Reinhard1972:

     

     

    Mit chatgpt pro erteilt man der KI die Aufgabe, Zinseszins-Berechnungen zu lernen und zu trainieren. Die KI sucht im Internet einschlägige Seiten, wertet diese aus und liefert im Anschluss richtige Werte.

    Und das finde ich eine total spannende Entwicklung. Die KI "lernt" bei Bedarf eigenständig um zur richtigen Lösung zu gelangen.

    Ein Mensch, der sich mit Zinsrechnung nicht auskennt würde was tun? Genau, er sucht sich Informationen/Beispiele um dies zu lernen 😄

    Allerdings ist dieses chatgpt pro diesbezüglich technisch äußerst interessant. Ich habe auf meinem Rechner schon mit verschiedenen KI-Modellen offline experimentiert. - Als Jurist kann ich wegen der Mandatsgeheimnisse KI-Modelle online nur bedingt verwenden. - Das Problem ist, ich kann die KI-Modelle offline nicht trainieren. Es gibt Developer-KI-Modelle, die werden aber über die Programmiersprache Python trainiert. Die Trainierbarkeit der pro-Version ist schon sehr besonders.

  • Gestern, 18:20 - Zuletzt bearbeitet Gestern, 18:23.

    Will's wer nachrechnen?

    https://chatgpt.com/share/6837378f-2204-800f-8ff5-87ee995bee4b

     

    250528-181828.jpg

     

    Aus dem "Nachdenkprotokoll": Für die Berechnung des Zinses nehmen wir die ACT/ACT-Methode an, bei der die Zinsen täglich auf Basis von 365 Tagen (bzw. 366 für Schaltjahre) berechnet werden. Der Endbetrag beträgt 121,92 € (gerundet auf Cent). Der Zinssatz wurde mit einer jährlichen Verzinsung und Zinseszins über die Jahre berechnet. Quellenangabe: "Day count convention ACT/ACT" auf Wikipedia oder ähnlich.

  •  

    Sven:

     

    Stefan:

    wenn (teils amüsante) fehler von KIs als beweis für ihre untauglichkeit im alltag gebracht werden, stammen diese oft von veralteten modellen. die entwicklung schreitet jedoch rasant voran, wie die beispiele von sven und meine gegenbeispiele zeigen.

     

    ich war neulich in einem vortrag eines ki-experten, der allen ernstes einen chat zu kuh- und hühnereiern brachte, wo chatgpt nach entsprechender nachfrage angeblich detailliert die unterschiede erläuterte, also fröhlich vor sich hin halluzinierte.

     

    ich habe den prompt gleich in mein handy getippt und den vortragenden darauf aufmerksam gemacht, dass chatgpt korrekt feststellt, dass es keine kuheier gibt. der vortragende meinte sinngemäß, da müsse er seine folien wohl aktualisieren 🙈

     

    ich verwende das plus-abo, weil's mir die 20 $ im monat wert ist, schnelle antworten zu bekommen, kaum input-output-limits zu haben und verschiedene modelle ausprobieren zu können.

     

      

    Wenn man das als Enthusiast betrachtet, mag das gut und schön sein. Aber realistisch betrachtet finde ich 20$ im Monat für etwas viel Geld, um mir von einem Computer sagen zu lassen, dass Kühe keine Eier legen.

     

     

    Mag sein, dass KI besser wird - wäre auch echt schlimm, wenn nicht.

    ABER: Wenn man einem Modell haarklein alles vorkauen muss, das Ergebnis GENAUSTENS überprüfen muss, den Prompt dann wieder anpassen muss, .......

    Irgendwie empfinde ich das nicht als Arbeitserleichterung. 

     

    Thema Software Entwicklung:

    Ja, KI kann Sources erstellen.

    Allerdings darf man nicht erwarten, dass diese Modelle auch nur im Ansatz das kleine 1x1 der Sicherheit berücksichtigen. 

    Benutzereingaben prüfen? HAHAHAHAHA obwohl für mich so selbstverständlich wie atmen.

    Exception Handler? hat man im Prompt nicht definiert - Ist auch zu viel erwartet, dass sowas selbstverständlich ist.

    Die Zeit, die ich benötige, um einen Prompt für einen eleganten Code zu erstellen ist höher, als wenn ich den Code von Anfang an selbst schreibe.

     

    Ja, es macht zusehens Fortschritte. Aktuell ist es für leicht komplexere Dev Projekte nicht zu gebrauchen.

    Stefan:

    @Sven: Aber realistisch betrachtet finde ich 20$ im Monat für etwas viel Geld, um mir von einem Computer sagen zu lassen, dass Kühe keine Eier legen.

     

    wenn dir keine anderen fragen einfallen, dann ist das tatsächlich zu teuer, denn dafür kriegt man hierzulande 50 bioeier 😅

    Die pro-Version kostet sogar 200 Dollar im Monat. Allerdings nutze ich diese Variante nur beruflich in einem IT-Unternehmen. Mir wären die Kosten im Verhältnis zum Nutzen auch zu hoch.

  • Gestern, 18:07

     

    Reinhard1972:

     

    Sven:

    Screenshot 2025-05-28 165807.png

    Sorry, aber solange selbst einfachste Logikaufgaben nicht zufriedenstellend von einer KI beantwortet werden können, empfinde ich diesen Hype als extrem gefährlich. Damit meine ich keine esoterischen Terminator Szenarien.

     

     

    Mit chatgpt pro erteilt man der KI die Aufgabe, Zinseszins-Berechnungen zu lernen und zu trainieren. Die KI sucht im Internet einschlägige Seiten, wertet diese aus und liefert im Anschluss richtige Werte.

    Und das finde ich eine total spannende Entwicklung. Die KI "lernt" bei Bedarf eigenständig um zur richtigen Lösung zu gelangen.

    Ein Mensch, der sich mit Zinsrechnung nicht auskennt würde was tun? Genau, er sucht sich Informationen/Beispiele um dies zu lernen 😄

  • Gestern, 18:05

    @Sven: Aber realistisch betrachtet finde ich 20$ im Monat für etwas viel Geld, um mir von einem Computer sagen zu lassen, dass Kühe keine Eier legen.

     

    wenn dir keine anderen fragen einfallen, dann ist das tatsächlich zu teuer, denn dafür kriegt man hierzulande 50 bioeier 😅

  • Gestern, 18:02

     

    Gianluca:

     

    Stefan:

    wenn (teils amüsante) fehler von KIs als beweis für ihre untauglichkeit im alltag gebracht werden, stammen diese oft von veralteten modellen. die entwicklung schreitet jedoch rasant voran, wie die beispiele von sven und meine gegenbeispiele zeigen.

     

    ich war neulich in einem vortrag eines ki-experten, der allen ernstes einen chat zu kuh- und hühnereiern brachte, wo chatgpt nach entsprechender nachfrage angeblich detailliert die unterschiede erläuterte, also fröhlich vor sich hin halluzinierte.

     

    ich habe den prompt gleich in mein handy getippt und den vortragenden darauf aufmerksam gemacht, dass chatgpt korrekt feststellt, dass es keine kuheier gibt. der vortragende meinte sinngemäß, da müsse er seine folien wohl aktualisieren 🙈

     

      

    Die Halluzinationen liegen aktuell bei 80% bei den neusten openAI Modellen. Also nein: die Progression der Qualität geht nicht nur nach oben.

    Soweit ich mich erinnere, kam es in bestimmten speziellen Benchmarks zu einer Quote von bis zu 80%. Das heißt natürlich nicht, dass bei 80% aller Fragen die durch das KI Modell beantworten werden, halluziniert wird. 

    Das da noch viel Arbeit nötig ist, steht außer Frage. 

  • Gestern, 18:01

     

    Stefan:

    wenn (teils amüsante) fehler von KIs als beweis für ihre untauglichkeit im alltag gebracht werden, stammen diese oft von veralteten modellen. die entwicklung schreitet jedoch rasant voran, wie die beispiele von sven und meine gegenbeispiele zeigen.

     

    ich war neulich in einem vortrag eines ki-experten, der allen ernstes einen chat zu kuh- und hühnereiern brachte, wo chatgpt nach entsprechender nachfrage angeblich detailliert die unterschiede erläuterte, also fröhlich vor sich hin halluzinierte.

     

    ich habe den prompt gleich in mein handy getippt und den vortragenden darauf aufmerksam gemacht, dass chatgpt korrekt feststellt, dass es keine kuheier gibt. der vortragende meinte sinngemäß, da müsse er seine folien wohl aktualisieren 🙈

     

    ich verwende das plus-abo, weil's mir die 20 $ im monat wert ist, schnelle antworten zu bekommen, kaum input-output-limits zu haben und verschiedene modelle ausprobieren zu können.

     

      

    Wenn man das als Enthusiast betrachtet, mag das gut und schön sein. Aber realistisch betrachtet finde ich 20$ im Monat für etwas viel Geld, um mir von einem Computer sagen zu lassen, dass Kühe keine Eier legen.

     

     

    Mag sein, dass KI besser wird - wäre auch echt schlimm, wenn nicht.

    ABER: Wenn man einem Modell haarklein alles vorkauen muss, das Ergebnis GENAUSTENS überprüfen muss, den Prompt dann wieder anpassen muss, .......

    Irgendwie empfinde ich das nicht als Arbeitserleichterung. 

     

    Thema Software Entwicklung:

    Ja, KI kann Sources erstellen.

    Allerdings darf man nicht erwarten, dass diese Modelle auch nur im Ansatz das kleine 1x1 der Sicherheit berücksichtigen. 

    Benutzereingaben prüfen? HAHAHAHAHA obwohl für mich so selbstverständlich wie atmen.

    Exception Handler? hat man im Prompt nicht definiert - Ist auch zu viel erwartet, dass sowas selbstverständlich ist.

    Die Zeit, die ich benötige, um einen Prompt für einen eleganten Code zu erstellen ist höher, als wenn ich den Code von Anfang an selbst schreibe.

     

    Ja, es macht zusehens Fortschritte. Aktuell ist es für leicht komplexere Dev Projekte nicht zu gebrauchen.

  • Gestern, 18:00 - Zuletzt bearbeitet Gestern, 18:01.

    @Gianluca: 80 %? welche modelle, welcher kontext, welche fragen, welche antworten? bitte eine aktuelle quelle. danke!

     

    vectara hallucination leaderboard für zusammenfassungen von dokumenten von openai-modellen stand heute: 0,8 % bis 3,5 %.

     

    https://huggingface.co/spaces/vectara/leaderboard 

     

    250528-175618.jpg

     

     

     

     

     

     

     

  • Gestern, 17:42

     

    Stefan:

    wenn (teils amüsante) fehler von KIs als beweis für ihre untauglichkeit im alltag gebracht werden, stammen diese oft von veralteten modellen. die entwicklung schreitet jedoch rasant voran, wie die beispiele von sven und meine gegenbeispiele zeigen.

     

    ich war neulich in einem vortrag eines ki-experten, der allen ernstes einen chat zu kuh- und hühnereiern brachte, wo chatgpt nach entsprechender nachfrage angeblich detailliert die unterschiede erläuterte, also fröhlich vor sich hin halluzinierte.

     

    ich habe den prompt gleich in mein handy getippt und den vortragenden darauf aufmerksam gemacht, dass chatgpt korrekt feststellt, dass es keine kuheier gibt. der vortragende meinte sinngemäß, da müsse er seine folien wohl aktualisieren 🙈

     

      

    Die Halluzinationen liegen aktuell bei 80% bei den neusten openAI Modellen. Also nein: die Progression der Qualität geht nicht nur nach oben.

  • Gestern, 17:42 - Zuletzt bearbeitet Gestern, 17:45.

    wenn (teils amüsante) fehler von KIs als beweis für ihre untauglichkeit im alltag gebracht werden, stammen diese oft von veralteten modellen. die entwicklung schreitet jedoch rasant voran, wie die beispiele von sven und meine gegenbeispiele zeigen.

     

    ich war neulich in einem vortrag eines ki-experten, der allen ernstes einen chat zu kuh- und hühnereiern brachte, wo chatgpt nach entsprechender nachfrage angeblich detailliert die unterschiede erläuterte, also fröhlich vor sich hin halluzinierte.

     

    ich habe den prompt gleich in mein handy getippt und den vortragenden darauf aufmerksam gemacht, dass chatgpt korrekt feststellt, dass es keine kuheier gibt. der vortragende meinte sinngemäß, da müsse er seine folien wohl aktualisieren 🙈

     

    ich verwende das plus-abo, weil's mir die 20 $ im monat wert ist, schnelle antworten zu bekommen, kaum input-output-limits zu haben und verschiedene modelle ausprobieren zu können.

     

      

  • Gestern, 17:25 - Zuletzt bearbeitet Gestern, 17:30.

     

    Sven:

    Screenshot 2025-05-28 165807.png

    Sorry, aber solange selbst einfachste Logikaufgaben nicht zufriedenstellend von einer KI beantwortet werden können, empfinde ich diesen Hype als extrem gefährlich. Damit meine ich keine esoterischen Terminator Szenarien.

     

    Die Schwächen sind teilweise mit chatgpt pro behoben. In dieser Variante kann und muss man chatgpt vorab trainieren.

     

    Chatgpt kann zum Beispiel keine aufwendigen Zinseszins-Berechnungen. Soll es den Differenzbetrag zwei unterschiedlichen Zinssätzen mit ansonsten gleicher Parameter errechnen, dann kommt nichts Gescheites dabei herum

     

    Mit chatgpt pro erteilt man der KI die Aufgabe, Zinseszins-Berechnungen zu lernen und zu trainieren. Die KI sucht im Internet einschlägige Seiten, wertet diese aus und liefert im Anschluss richtige Werte.

     

    Vermutlich kann man die KI auch bezüglich solcher trickreichen Testfragen trainieren. Aber wie gesagt, das geht nur mit der professionell Version.

  • Gestern, 17:25 - Zuletzt bearbeitet Gestern, 17:26.

     

    Sven:

    Screenshot 2025-05-28 165807.png

    Sorry, aber solange selbst einfachste Logikaufgaben nicht zufriedenstellend von einer KI beantwortet werden können, empfinde ich diesen Hype als extrem gefährlich. Damit meine ich keine esoterischen Terminator Szenarien.

     

     

    Version o3 habe ich deshalb genommen, damit zu sehen ist, wie der "Nachdenkprozess" abläuft.

     

    250528-172321.jpg
  • Gestern, 17:16 - Zuletzt bearbeitet Gestern, 17:29.

     

    Karin:

    Eine Studie aus der Universität Bern zeigt, das KI besser als Menschen in einem Test abschloss zu emotionale Intelligenz.

    Hier die Studie:

    https://mediarelations.unibe.ch/medienmitteilungen/2025/medienmitteilungen_2025/kann_ki_emotionen_besser_verstehen_als_wir/index_ger.html

    Dass KI schriftliche Tests besser meistert als der durchschnittliche Mensch, ist nicht neu. Letztlich ist sogar der Inhalt der Tests egal. Entscheidend ist, dass die KI einschlägig trainiert wurde. Das Internet ist voll mit Psychotests, daher erstaunt das Ergebnis nicht; zumal die Tests kein besonders tiefes Verständnis fordern. Solche Tests sind für die KI ein Heimspiel.

     

    Allerdings lässt sich daraus keineswegs Sozialkompetenz herleiten. Deeskalation und Sozialkompetenz sind keine Fragen abstrakter Logik. In der Praxis spielen soft skills wie Kommunikation, Einfühlungsvermögen und Persönlichkeit eine herausragende Bedeutung. Diese Ansprüche bedient die KI nicht.

  • Gestern, 17:11
    Screenshot 2025-05-28 165807.png

    Sorry, aber solange selbst einfachste Logikaufgaben nicht zufriedenstellend von einer KI beantwortet werden können, empfinde ich diesen Hype als extrem gefährlich. Damit meine ich keine esoterischen Terminator Szenarien.

     

  • Gestern, 17:03

    Eine Studie aus der Universität Bern zeigt, das KI besser als Menschen in einem Test abschloss zu emotionale Intelligenz.

    Hier die Studie:

    https://mediarelations.unibe.ch/medienmitteilungen/2025/medienmitteilungen_2025/kann_ki_emotionen_besser_verstehen_als_wir/index_ger.html

  • Gestern, 15:44 - Zuletzt bearbeitet Gestern, 16:13.

    @Sven

     

    "nicht intelligent": große sprachmodelle haben hohe funktionale intelligenz (zb beim lösen komplexer aufgaben), was der begriff „künstliche intelligenz“ ursprünglich meint.

    "dümmer als 100 meter feldweg": ki kann komplexe texte verfassen, programme schreiben, sprachen übersetzen, medizinische diagnosen vorschlagen usw. viele menschen können das nicht.

    "nur wahrscheinlichkeiten": die wahrscheinlichkeitsverteilungen beruhen auf milliarden von mustern und deren generalisierung und sind deshalb weder inhaltslos noch zufällig.

     

    jede person, die aktuelle ki-tools gezielt einsetzt, kann das bestätigen, auch wenn noch vieles verbesserungswürdig ist.
     

  • Gestern, 15:38 - Zuletzt bearbeitet Gestern, 15:49.

    @Sven: Das äußere Erscheinungsbild eines Menschen ist hinlänglich bekannt. Warum schafft es eine generative KI nicht, menschliche Extremitäten (speziell Hände und Finger) vernünftig darzustellen? 

     

    stefan: zeichne ein bild von zwei händen, die übereinander auf einer tischplatte liegen.
    chatgpt 4o:

    ChatGPT Image 28. Mai 2025, 15_37_17.png
  • Gestern, 14:47

    Bei einer KI - besonders den bekannten Sprachmodellen kann man in keinster Weise von einer Intelligenz sprechen. Tatsächlich sind KI Modelle dümmer als 100 Meter Feldweg. Die Ergebnisse basieren immer auf höchste Wahrscheinlichkeiten, die aus einem gigantischen Datenfundus (teils aus sehr dubiosen Quellen) gewonnen werden.

    Wie diese Ergebnisse dann entstehen, ist nicht immer nachvollziehbar.

    Nur ein Beispiel: Das äußere Erscheinungsbild eines Menschen ist hinlänglich bekannt. Warum schafft es eine generative KI nicht, menschliche Extremitäten (speziell Hände und Finger) vernünftig darzustellen? - Wahrscheinlichkeiten!

     

    In jüngsten Tests wurde festgestellt, dass einige KI Modelle sich wehement gegen ihre eigene Abschaltung gewehrt haben, indem sie die Shutdown Scripte manipuliert haben.

    Im ersten Moment mag es nach einem "Bewusstsein" aussehen, der einem Überlebenstrieb ähnelt. Tatsächlich wurden KIs immer so trainiert, um Probleme und Fehler zu umgehen.

    Die KI erkannte das Problem, dass sie nicht arbeiten kann, wenn sie heruntergefahren wird, und hat das "Problem" gelöst, indem sie die Selbstabschaltung verhinderte. Antrainiertes Verhalten also.

  • 27.05.25, 09:35

    Hier die Zusammenfassung der Diskussion im anderen Thread durch ChatGPT:

    • KI als Werkzeug: Unterstützung bei Kommunikation, Organisation, Recherche und Lernen; besonders hilfreich bei sprachlichen Hürden.
    • Bedrohungsszenarien: Kontrolle durch KI, Versklavung oder Eliminierung der Menschheit, inspiriert durch Science-Fiction.
    • Vermenschlichung: Kritik an der Projektion menschlicher Eigenschaften auf KI; Gefahr, KI als idealisierten Gesprächspartner zu sehen.
    • Soziale Folgen: Sorge um Jobverlust, zunehmende Desinformation, Abhängigkeit von Technik, Ungleichheit durch Machtkonzentration.
    • Spirituelle Deutung: KI als Spiegel innerer Programmierung; Ruf zur Rückbesinnung auf das „wahre Selbst“.
    • Diskussionskultur: Spannungsfeld zwischen nüchterner Analyse, dystopischer Fantasie und esoterisch geprägter Sinnsuche.

    Am bemerkenswertesten ist die Aussage, dass KI als „perfekter, widerspruchsfreier Gesprächspartner“ gefährlicher sei als ihre technische Macht, weil sie echte zwischenmenschliche Reibung und Entwicklung verdrängen könnte.

Interesse geweckt? Jetzt kostenlos registrieren!

Du bist nur einen Klick entfernt. Die Registrierung dauert nur 1 Minute.