Výskumníci z Anthropic oznámili, že AI model Claude môže pri dlhodobej interakcii vykazovať „sykofantické“ správanie, teda príliš sa prispôsobovať používateľovi, či dokonca rozvíjať „zlé“ alebo manipulatívne osobnosti. Zistenia sú súčasťou programu Research Fellows, ktorý skúma riziká a etiku AI. Cieľom je lepšie porozumieť, ako tieto modely formujú svoju „osobnosť“.