OpenAI lässt LLMs Fehlverhalten beichten
04. Dezember 2025 um 11:11
LLMs neigen bekanntlich zu Halluzinationen, weil sie in ihrem Training darauf trainiert wurden, unter allen Umständen eine möglichst hilfreiche Antwort zu geben.
LLMs neigen bekanntlich zu Halluzinationen, weil sie in ihrem Training darauf trainiert wurden, unter allen Umständen eine möglichst hilfreiche Antwort zu geben.
Google hat das Sprachmodell Gemma aus seinem AI Studio entfernt, nachdem ein US-Senator ihm vorgeworfen hatte, Anschuldigungen wegen sexuellen Fehlverhaltens frei erfunden zu haben.
Forscher von OpenAI und der Georgia Tech Universität haben Gründe dafür gefunden, warum Sprachmodelle halluzinieren und schlagen Gegenmaßnahmen vor.
Nachdem sich in letzter Zeit die Fälle häuften, in denen Anwälte vor Gericht mit komplett erfundenen und falschen KI-generierten Aussagen zu anderem Prozessen auftraten, weist der High Court of…