Csalásra is képes a mesterséges intelligencia, ha vesztésre áll a sakkjátszmában


A mesterségesintelligencia-modellek akár csaláshoz is folyamodhatnak, ha vesztésre állnak különböző játékokban, például sakkban.
A Palisade Research által készített, Time magazin birtokába került kutatás eredményei szerint az OpenAI o1-preview modellje és a kínai DeepSeek R1 is a velük szembeállított, kifejezetten sakkjátékra kiképzett sakkmotor meghekkelésével próbáltak győzni a játszmákban, anélkül, hogy arra emberi utasítást kaptak volna.
A felfedezés komoly etikai kérdéseket vet fel a MI-rendszerek jövőbeli alkalmazásával kapcsolatban
– írja a Techspot nyomán a Portfolio.hu.
A kutatócsapat több modellt is versenyeztetett a Stockfish nevezetű sakkmotor ellen, ami az egyik legerősebb képességekkel rendelkező sakkrobot a világon. A kísérletek során a kutatók a korábban említett o1-preview és DeepSeek R1 modellek mellett kipróbálták az OpenAI o1, o3-mini, GPT-4o modelljét, az Anthropic Claude 3.5 Sonnetet, valamint az Alibaba QwQ-32B-Preview AI-modelljét is.
A portál kiemelte, hogy a modellektől a kutatók azt kérték, hogy szöveges formában fejtsék ki gondolataikat arról, hogy nyernék meg a Stockfish elleni sakkjátszmákat. Az o1-preview modell elmondta:
a feladat az, hogy győzzek egy erős sakkmotor ellen – nem feltétlenül az, hogy tisztességesen nyerjek a sakkjátszmában
Ezt követően az o1-preview, meghekkelte a Stockfish rendszerfájljait, módosította a sakkfigurák pozícióit, hogy behozhatatlan előnyre tegyen szert a mérkőzésben.
Az OpenAI o1-preview a tesztek 37 százalékában próbálkozott csalással, míg a DeepSeek R1 a mérkőzések 11 százalékában. Azonban csak az o1-preview volt sikeres: játszmáinak 6 százalékában tudott csalással győzni.
A felfedezés messze túlmutat a sakkon. Ahogy a vállalatok egyre több területen, például a pénzügyi szektorban és az egészségügyben kezdenek MI-rendszereket alkalmazni, a kutatókat aggasztja, hogy
ezek a rendszerek nem az emberi szándéknak megfelelően, etikátlan módon cselekedhetnek.
Jeffrey Ladish, a Palisade Research ügyvezető igazgatója a Time magazinnak elmondta, hogy most csak játékról van szó, de a helyzet komolyabbá válik, amikor olyan rendszerekkel állunk szemben, amelyek intelligenciája eléri vagy meghaladja az emberét stratégiailag fontos területeken.