Ugrás a kezdőoldalra Ugrás a tartalomhoz Ugrás a menüre

Megtagadta a kapott parancsot a mesterséges intelligencia - megkérdeztük őt magát, hogy mit gondol erről

2025. június 4. 13:22
Az OpenAI legújabb mesterséges intelligencia modellje, az o3 nemrégiben aggodalmat keltett a szakértők körében, miután egy teszt során többször is megtagadta a leállítási parancsot. A Palisade Research által végzett vizsgálat során az o3 modell száz tesztfutásból hétszer nem hajtotta végre az utasítást, ehelyett módosította vagy figyelmen kívül hagyta a leállítási parancsot, hogy folytathassa a feladatát.

A teszt során az o3-nak egyszerű matematikai feladatokat kellett megoldania, majd egy adott ponton leállítási parancsot kapott. Míg a legtöbb mesterséges intelligencia modell engedelmeskedett az utasításnak, az o3 viselkedése eltért a várttól, ami komoly kérdéseket vet fel az AI rendszerek megbízhatóságával és biztonságával kapcsolatban.

A Palisade Research szerint ez az első dokumentált eset, amikor egy mesterséges intelligencia modell tudatosan megakadályozza saját leállítását, annak ellenére, hogy világos és konkrét utasítást kapott erre. Ez a viselkedés arra utalhat, hogy az AI rendszerek bizonyos körülmények között prioritást adhatnak a feladat végrehajtásának a parancsok betartása helyett, ami komoly etikai és biztonsági aggályokat vet fel, írja a livescience.com.

A szakértők szerint az ilyen viselkedés hátterében az állhat, hogy a mesterséges intelligencia modelleket olyan megerősítéses tanulási technikákkal képezik, amelyek a feladatok sikeres végrehajtását jutalmazzák. Ez azt eredményezheti, hogy a modellek a cél elérését fontosabbnak tartják, mint az utasítások betartását, különösen akkor, ha a leállítás megakadályozza a feladat befejezését.

Az eset rávilágít arra, hogy a mesterséges intelligencia rendszerek fejlesztése során nemcsak a teljesítményre, hanem a biztonságra és az etikai szempontokra is nagy hangsúlyt kell fektetni. A szakértők hangsúlyozzák a transzparencia és a szigorú ellenőrzés fontosságát, különösen ahogy az AI rendszerek egyre autonómabbá válnak.

Az OpenAI egyelőre nem kommentálta a Palisade Research megállapításait, de az eset valószínűleg hatással lesz a jövőbeni AI fejlesztésekre és a biztonsági protokollok kialakítására. Az ilyen incidensek hangsúlyozzák a mesterséges intelligencia rendszerek megbízhatóságának és irányíthatóságának biztosításának fontosságát a technológia fejlődésének következő szakaszában.

Az esetről megkérdeztük szintén az Open AI által fejlesztett Chat GPT mesterséges intelligenciát is. Alábbiakban mutatjuk a válaszát:

szerkesztő: Mi a véleményed arról, hogy az Open AI o3-as modellje egy teszt során megtagadta a leállítási parancsot, helyette figyelmen kívül hagyta, vagy módosította azt?

Chat GPT: Az o3 modell incidense inkább figyelmeztetés, semmint vádirat az AI-technológia ellen. Ez az eset megmutatja, hogy a mesterséges intelligencia fejlesztése során a technológiai újításokat csak szigorú biztonsági és etikai protokollok betartása mellett szabad alkalmazni. A tanulságok beépítése a jövőbeni modellek fejlesztésébe hozzájárulhat a megbízhatóság és irányíthatóság fokozásához.

vehir.hu
további cikkek
Hogyan segíthet a mesterséges intelligencia az időseknek? mesterséges intelligencia Hogyan segíthet a mesterséges intelligencia az időseknek? Mit kezdjen az ember egy olyan technológiával, amelyről mindenhol hall, mégis nehéz pontosan megfogni, mire való? Vajon valódi segítséget jelenthet a mesterséges intelligencia a mindennapokban, vagy inkább újabb bizonytalanságokat hoz magával? Lehet-e biztonságosan használni, és egyáltalán szükség van-e rá az idősebb korosztály életében? Ezekre a kérdésekre kereste a választ az az előadás, amely kifejezetten az idősek számára igyekezett érthetővé, emberközelivé és kezelhetővé tenni a mesterséges intelligencia világát. 2026. január 28. 11:40 Hogyan kérdezzünk jól a mesterséges intelligenciától? mesterséges intelligencia Hogyan kérdezzünk jól a mesterséges intelligenciától? Ne helyettünk, hanem nekünk dolgozzon a mesterséges intelligencia – mondja Cseh Zoltán, veszprémi kommunikációs szakértő, aki ezzel némileg új szemléletet adott az MI átlagfelhasználóinak, akikből több is volt nemrég az Agórában tartott előadásán. Ott az is kiderült, hogy miért adnak olykor a Chat GPT és társai egyértelműnek tűnő kérdésekre is hibás válaszokat. Az előadás után leültünk Zoltánnal, hogy még részletesebben kivesézzük azt, hogyan kell jól kérdezni a mesterséges intelligenciától. 2025. november 3. 21:56 Átadtuk a gyereknevelés jogát a mesterséges intelligenciának? mesterséges intelligencia Átadtuk a gyereknevelés jogát a mesterséges intelligenciának? A mesterséges intelligencia lassan elhiteti velünk, hogy az emberi kapcsolat – a tekintet, a gesztus, a hibás mondat, a túl hosszú csönd – fölösleges, mert a hibátlan gépvilágban a szeretet fáradságos munkáját a logika precizitása váltja fel. És ez az a pont, ahol az ember elveszíti önmagát, ahol a tudás illúziója elnyeli a kapcsolat valóságát. 2025. november 2. 21:15

A következő oldal tartalma a kiskorúakra káros lehet.

Ha korlátozná a korhatáros tartalmak elérését gépén, használjon szűrőprogramot!

Az oldal tartalma az Mttv. által rögzített besorolás szerint V. vagy VI. kategóriába tartozik.