GPT-4 radil pri plánovaní teroristických útokov. Stalo sa to vtedy, keď boli žiadosti preložené do jazykov, ktoré boli menej známe, ako je zulučina a škótska gaelčina. Ochranné prvky navrhnuté tak, aby zabránili umelej inteligencii od OpenAI odpovedať na škodlivé výzvy, zlyhali.