Reklama

GPT-4 radil pri plánovaní teroristických útokov. Stalo sa to vtedy, keď boli žiadosti preložené do jazykov, ktoré boli menej známe, ako je zulučina a škótska gaelčina. Ochranné prvky navrhnuté tak, aby zabránili umelej inteligencii od OpenAI odpovedať na škodlivé výzvy, zlyhali.

Zobraziť celú správu
Ďalšia story
Zatvoriť

Newsletter

Ďakujeme za váš záujem! Odteraz vám už neunikne žiadna novinka.
Ľutujeme, ale váš formulár sa nepodarilo odoslať.