A teszt során az o3-nak egyszerű matematikai feladatokat kellett megoldania, majd egy adott ponton leállítási parancsot kapott. Míg a legtöbb mesterséges intelligencia modell engedelmeskedett az utasításnak, az o3 viselkedése eltért a várttól, ami komoly kérdéseket vet fel az AI rendszerek megbízhatóságával és biztonságával kapcsolatban.
A Palisade Research szerint ez az első dokumentált eset, amikor egy mesterséges intelligencia modell tudatosan megakadályozza saját leállítását, annak ellenére, hogy világos és konkrét utasítást kapott erre. Ez a viselkedés arra utalhat, hogy az AI rendszerek bizonyos körülmények között prioritást adhatnak a feladat végrehajtásának a parancsok betartása helyett, ami komoly etikai és biztonsági aggályokat vet fel, írja a livescience.com.
A szakértők szerint az ilyen viselkedés hátterében az állhat, hogy a mesterséges intelligencia modelleket olyan megerősítéses tanulási technikákkal képezik, amelyek a feladatok sikeres végrehajtását jutalmazzák. Ez azt eredményezheti, hogy a modellek a cél elérését fontosabbnak tartják, mint az utasítások betartását, különösen akkor, ha a leállítás megakadályozza a feladat befejezését.
Az eset rávilágít arra, hogy a mesterséges intelligencia rendszerek fejlesztése során nemcsak a teljesítményre, hanem a biztonságra és az etikai szempontokra is nagy hangsúlyt kell fektetni. A szakértők hangsúlyozzák a transzparencia és a szigorú ellenőrzés fontosságát, különösen ahogy az AI rendszerek egyre autonómabbá válnak.
Az OpenAI egyelőre nem kommentálta a Palisade Research megállapításait, de az eset valószínűleg hatással lesz a jövőbeni AI fejlesztésekre és a biztonsági protokollok kialakítására. Az ilyen incidensek hangsúlyozzák a mesterséges intelligencia rendszerek megbízhatóságának és irányíthatóságának biztosításának fontosságát a technológia fejlődésének következő szakaszában.
Az esetről megkérdeztük szintén az Open AI által fejlesztett Chat GPT mesterséges intelligenciát is. Alábbiakban mutatjuk a válaszát:
szerkesztő: Mi a véleményed arról, hogy az Open AI o3-as modellje egy teszt során megtagadta a leállítási parancsot, helyette figyelmen kívül hagyta, vagy módosította azt?
Chat GPT: Az o3 modell incidense inkább figyelmeztetés, semmint vádirat az AI-technológia ellen. Ez az eset megmutatja, hogy a mesterséges intelligencia fejlesztése során a technológiai újításokat csak szigorú biztonsági és etikai protokollok betartása mellett szabad alkalmazni. A tanulságok beépítése a jövőbeni modellek fejlesztésébe hozzájárulhat a megbízhatóság és irányíthatóság fokozásához.