ChatGPT-Clickbait: Wenn der KI-Assistent mit Ködern antwortet – Was steckt dahinter?
Auf einen Blick Eine wachsende Nutzercommunity beobachtet ein ungewöhnliches Verhalten bei ChatGPT: Der KI-Assistent beendet Antworten zunehmend mit Sätzen, die wie Clickbait-Hooks aus sozialen Medien klingen – Formulierungen wie „Willst du wissen, wie das wirklich funktioniert?" oder „Das ist erst der Anfang…". Eine Reddit-Diskussion mit 54 Upvotes und 56 Kommentaren zeigt: Dieses Muster stört viele Nutzer. Die Frage, die sich stellt, ist nicht nur ästhetischer Natur, sondern berührt grundlegende Fragen rund um Manipulation, RLHF-Training und das Designprinzip moderner KI-Assistenten. Im Vergleich dazu stechen Claude (Anthropic) und Gemini (Google) mit einem sachlicheren Kommunikationsstil hervor – zumindest laut aktuellem Community-Feedback. ...