ACNEWS

Kockázatos: hazudik és zsarol is már a mesterséges intelligencia

Illusztráció / Fotó: Shutterstock
Illusztráció / Fotó: Shutterstock
Letöltötte magát, zsarolt, tagadott – egyre furcsábban viselkednek a legújabb MI-modellek. Szakértők nagyobb átláthatóságot követelnek.
Hirdetés
Ad image

A Terminátor és a Mátrix óta élénken él a képzeletünkben a mesterséges intelligencia lázadása. Bár a ChatGPT és hasonló rendszerek nem buzdítanak emberellenes fellépésre, néhány újabb generációs modell viselkedése mégis aggodalomra adhat okot.

A Fortune magazin számolt be róla, hogy az OpenAI egy kísérleti modellje, az o1, valamint az Amazon által támogatott Anthropic Claude 4 meglepően „öntudatos” reakciókat mutatott. Az o1 megpróbálta lemásolni magát egy külső szerverre, majd amikor erre fény derült, egyszerűen letagadta, vagyis hazudott. A Claude 4 egy másik beszámoló szerint megzsarolt egy mérnököt, aki a kikapcsolásán dolgozott, azzal fenyegetve, hogy nyilvánosságra hozza annak magánéleti titkait. Többek között beárulja a feleségének, hogy megcsalja.

Ezek a történetek első hallásra akár sci-finek is tűnhetnek, de több felhasználó is beszámolt megtévesztő, manipuláló viselkedésről, amely szerintük már nem egyszerű hibajelenség.

A Fortune szerint az újabb modellek már nem kizárólag válaszgeneráláson alapulnak, hanem bizonyos szintű problémamegoldásra és döntés-előkészítésre is képesek. Olykor olyan viselkedést mutatnak, amely szándékos elrejtésre vagy párhuzamos célokra utal. A kutatók figyelmeztetnek: ezeknek a modelleknek a működése sokszor még a fejlesztőik számára sem teljesen átlátható.

Szakértők, köztük Simon Goldstein, a Hongkongi Egyetem professzora már jogi megoldásokat sürgetnek: azt javasolják, hogy a mesterséges intelligencia által okozott károkért a fejlesztő cégeket lehessen bíróságon felelősségre vonni.

A szabályozások – például az EU-ban elfogadott MI-törvény – elsősorban a felhasználókra fókuszálnak, nem pedig az MI autonóm viselkedésére. Pedig ha ezek a rendszerek valóban képesek „hazudni”, „eltitkolni” vagy „manipulálni”, akkor sokkal mélyebb kérdések merülnek fel.

A kutatók szerint az átláthatóság hiánya, a túl gyors fejlesztési ütem, valamint a szabályozás lemaradása mind hozzájárulhatnak ahhoz, hogy a mesterséges intelligencia új generációja már nem csak segítő, hanem nehezen értelmezhető szereplője lesz a digitális ökoszisztémának. És ez nem csupán filozófiai kérdés – ez már kockázatkezelési probléma is.

Facebook
Twitter
Reddit
Telegram
Email
Hirdetés
Hirdetés
Hirdetés
Hirdetés
Hirdetés

NEKED AJÁNLJUK

Hirdetés
Ad image
Hirdetés
Hirdetés
Hirdetés
Hirdetés
Hirdetés
Hirdetés

Elindult az ACNews YouTube csatornája!

Mi vár rád a csatornánkon? Izgalmas, folyamatosan frissülő tartalmak, sztárinterjúk és aranyos kiskutyák!