In der Gruppe Künstliche Intelligenz gibt es einen Aufsatz von Vincent Müller, einem deutschen Philosophen, wo im letzten Kapitel folgender Satz zu lesen ist:
Eine der vielen offenen Fragen ist, ob ein nicht-lebendes System »echte Ziele« in dem Sinne haben kann, der für Handlungsentscheidungen und Verantwortung erforderlich ist, d.h. Ziele, die für das System einen subjektiven Wert haben und die das System reflektierend als wichtig erkennt.
Neulich könnte es (fast) soweit gewesen sein, als in einem Testszenario eine KI angeblich erpresst und bedroht hat.
Was meint ihr? Sind wir kurz davor KIs zu erschaffen, die aus eigenem Antrieb eigene Ziele verfolgen? Kann das bei einem nicht-biologischen System überhaupt möglich sein? Braucht es dazu Bewusstsein?