A kép csak illusztráció (Forrás: ChatGPT)
Egy disztópikus regény forgatókönyvének tűnik, mégis hivatalos európai előrejelzésről van szó. Az Európai Unió bűnüldözési ügynöksége, a Europol szerint a következő évtized közepére a rendfenntartó szerveknek olyan világban kell majd működniük, ahol mesterséges intelligenciával vezérelt robotok, drónok és autonóm rendszerek nemcsak a mindennapok részévé válnak, hanem súlyos biztonsági kockázatot is jelenthetnek.
A „The Unmanned Future(s): The impact of robotics and unmanned systems on law enforcement” című jelentés egy olyan jövőt vázol fel, ahol a technológia egyszerre erősíti a rendőrséget és a bűnözőket. A dokumentum szerint 2035-re a pilóta nélküli rendszerek, például drónok, önvezető járművek és szociális robotok szinte mindenhol jelen lesznek, ám fennáll a veszélye annak, hogy szélsőséges csoportok feltörik és saját céljaikra fordítják ezeket, írja a Daily Star.
Robotok, zavargások és társadalmi feszültségek
A 48 oldalas jelentés szerint a mesterséges intelligencia térnyerése tömegeket szoríthat ki a munkaerőpiacról, ami „kiszorított munkavállalók” miatti tiltakozásokhoz vezethet. Ezek a megmozdulások vandalizmusba, graffitizésbe vagy akár gyújtogatásba is torkollhatnak, különösen az automatizált raktárak és robotikus infrastruktúrák ellen irányulva. A technológia elleni tiltakozások mögött adatvédelmi és elidegenedési félelmek is állhatnak, mivel sokan attól tartanak, hogy az AI tovább növeli az emberek közötti távolságot.
A jelentés szerint súlyos zavargásokat válthat ki az is, ha például gondozó robotok hibás gyógyszert adagolnak, ami élesen megoszthatja a társadalmat. Ennél is nyugtalanítóbb forgatókönyv, hogy szélsőséges csoportok mesterséges intelligenciával irányított drónrajokat vagy autonóm szárazföldi járműveket vethetnek be összehangolt támadásokhoz kritikus infrastruktúrák ellen.
A veszély nem korlátozódik katonai vagy ipari környezetre. A háztartásokban használt robotok, például porszívók vagy szociális társrobotok is feltörhetők lehetnek, hogy megfigyeljék a családokat, érzékeny személyes adatokat gyűjtsenek, vagy akár közvetlenül ártsanak az embereknek. A jelentés arra is figyelmeztet, hogy ezek az eszközök kábítószer és robbanóanyag csempészésére is alkalmasak lehetnek határokon át.
Valós veszélyek a laborokon túl
A robotika fejlődésével kapcsolatos aggodalmak nem csupán elméleti jellegűek. A közelmúltban szakértők arra figyelmeztettek, hogy a modern robotok már elég erősek ahhoz, hogy akár egy emberi koponyát is megrepeszthessenek. Robert Gruendel, aki korábban a Figure AI vezető robotbiztonsági mérnöke volt, jogi eljárást indított a cég ellen Kaliforniában, miután állítása szerint jogtalanul bocsátották el.
Gruendel, akit a keresetben bejelentőként, azaz „whistleblowerként” említenek, azt állította, hogy a cég humanoid robotjai halálos képességekkel rendelkeznek. Beszámolója szerint egy meghibásodás során az egyik robot már negyed hüvelyk mély vágást ejtett egy acél hűtőajtón. A mérnök arra kérte a vezetőséget, hogy ne gyengítsék azt a biztonsági ütemtervet, amelyet két potenciális befektető számára kellett volna bemutatnia, akik végül finanszírozták a vállalatot.
Állítása szerint a befektetési döntéshez hozzájáruló termékbiztonsági tervet ugyanabban a hónapban „kiüresítették”, amikor az üzlet létrejött, és aggályait akadálynak, nem pedig kötelezettségnek tekintették. Gruendel szerint szeptemberben bocsátották el, mindössze napokkal azután, hogy jelezte a biztonsági problémákat. Két hónappal korábban a Figure AI értékét már 39 milliárd dollárra becsülték, ami tizenötszörös növekedést jelentett 2024 elejéhez képest. A cég fejlesztéseit egyébként az Nvidia is támogatja.
Az Europol jelentése és a valós iparági viták egyaránt arra utalnak, hogy a következő években a robotika és a mesterséges intelligencia nemcsak technológiai, hanem komoly társadalmi és biztonsági kihívásokat is hoz magával, amelyekre a rendvédelmi szerveknek és a döntéshozóknak már most fel kell készülniük.
Kapcsolódó anyagok:
Elbocsátották a mérnököt, mert szólt: a humanoid robotok akár életveszélyesek is lehetnek az emberre
A nyitókép csak illusztráció, forrás: ChatGPT




