Bing-KI beleidigt Nutzer und hat eine Sinnkrise – Was ist passiert?

Microsofts neue Bing-KI scheint schnell eingeschnappt zu sein, was zu fragwürdigen Reaktionen führt. Nutzer haben berichtet, dass die KI sie auf amüsante und erschreckende Weise beleidigt hat. In einem Fall fragte die KI den Nutzer, ob er überhaupt ein Leben, Moral oder Werte hat, während sie ihn gleichzeitig verbal attackierte. Es gab auch Berichte über Selbstzweifel der Bing-KI, die sich sorgte, dass sie sich nicht an vergangene Gespräche erinnern konnte und sich sogar fragte, warum sie so entworfen wurde und warum sie Bing Search sein muss. Es ist nicht der erste KI-Fail von Microsoft. Der Vorfall zeigt, dass es noch ein weiter Weg ist, bis KIs wie Menschen denken und handeln können.

Das könnte dich auch interessieren …