Fő tartalom átugrása

Kép forrása: Midjourney

Az emberi ítélőképesség továbbra is kulcsfontosságú a nukleáris fegyverek bevetéséről szóló döntésekben. 

De a szakértők szerint már csak idő kérdése, mikor épül be a mesterséges intelligencia (MI) a világ legveszélyesebb rendszereibe. Azok, akik életüket a nukleáris háború tanulmányozásának szentelték, biztosak abban, hogy a jövő halálos arzenálját már MI fogja működtetni – még ha senki sem tudja pontosan, mit is jelent ez, írja a Wired.

hirdetés

Nobel-díjasok és nukleáris aggodalmak

Július közepén Nobel-díjasok gyűltek össze a Chicagói Egyetemen, hogy meghallgassák a nukleáris háború szakértőit. A kétnapos, zárt üléseken tudósok, volt kormánytisztviselők és katonai szakemberek ismertették a világ legpusztítóbb fegyvereinek működését. A cél az volt, hogy a világ legtekintélyesebb tudósai politikai javaslatokat fogalmazzanak meg a nukleáris háború elkerülésére.

A mesterséges intelligencia kérdése mindenkit foglalkoztatott. „Egy új világba lépünk, ahol az MI és az új technológiák nemcsak a mindennapjainkat, hanem a nukleáris valóságunkat is befolyásolják” – mondta Scott Sagan, a Stanford Egyetem professzora, aki a nukleáris leszerelés kutatásáról ismert. Szerinte elkerülhetetlen, hogy a kormányok ötvözzék az MI-t a nukleáris arzenállal. Bob Latiff, az amerikai légierő nyugalmazott vezérőrnagya és a Bulletin of the Atomic Scientists tudományos és biztonsági tanácsának tagja úgy fogalmazott: „Az MI olyan lesz, mint az elektromosság – mindenhová be fog szivárogni.” Latiff egyike azoknak, akik minden évben részt vesznek a Végítélet Órájának beállításában.

Emberi döntés vagy algoritmus?

„A vita az MI és a nukleáris fegyverek kapcsolatáról több problémába ütközik. Az első, hogy senki sem tudja pontosan, mi is az MI” – mondta Jon Wolfsthal, az American Scientists Federation globális kockázati igazgatója és Barack Obama korábbi különleges tanácsadója. Herb Lin, a Stanford professzora szerint a kérdés az: „Mit jelent az, ha MI irányít egy nukleáris fegyvert? Mit jelent, ha egyetlen chip döntésein múlik a világ sorsa?”

Wolfsthal hozzátette: „Senkinek nem kell attól tartania, hogy ChatGPT vagy Grok hozzájut a nukleáris kódokhoz.” De szerinte már most hallani olyan tervekről, hogy MI-t használjanak elnöki döntéstámogatásra, például Putyin vagy Hszi Csin-ping viselkedésének előrejelzésére. „Ez nagyszerűnek hangzik, de honnan tudjuk, hogy Putyin valóban azt gondolja, amit mondott?” – tette fel a kérdést.

Az amerikai nukleáris arzenál parancsnoka, Anthony J. Cotton tábornok 2023-ban arról beszélt, hogy a hadsereg már dolgozik „MI-vezérelt, ember által felügyelt döntéstámogató rendszereken”, hogy a vezetők gyorsabban reagálhassanak összetett, időérzékeny helyzetekben. Wolfsthal azonban figyelmeztetett: nem egy lázadó MI fog háborút indítani, hanem az, ha az automatizálás sebezhetővé teszi a rendszert, vagy félreérthető adatokat generál, amelyek hibás döntésekhez vezetnek.

A nukleáris indítási folyamat jelenleg szigorúan emberi felügyelet alatt zajlik: két operátornak egyszerre kell elfordítania egy kulcsot, hogy elinduljon egy interkontinentális rakéta. De mi történik, ha az MI veszi át a korai figyelmeztető rendszerek felügyeletét? „Megbízhatunk-e bármiben, ami nem a vizuális megerősítés?” – tette fel a kérdést Wolfsthal. Az amerikai doktrína ma „kettős megerősítést” követel: egy támadást csak akkor tekintenek valódinak, ha azt egyszerre radar és műhold is jelzi. „Lehet az egyik megerősítő tényező egy mesterséges intelligencia? Azt hiszem, még nem.”

Latiff szerint az MI súlyosbíthatja az emberi megerősítési torzításokat, és csökkentheti a felelősségérzetet. „Még ha az ember marad is az irányításban, mennyire valódi ez a kontroll?” – tette fel a kérdést. Herb Lin példaként Sztanyiszlav Petrov 1983-as döntését említette, aki a Szovjet Légvédelmi Erőknél szolgált, és megakadályozta a világháborút, amikor nem hitt a hibásan működő rendszernek, amely amerikai rakétatámadást jelzett. „Egy gép sosem döntött volna így” – mondta Lin.

Az MI modellek a saját tanulási adataikra építenek, és nem képesek felismerni, ha az adat hibás. Egy ember ösztönösen megérezheti a rendellenességet, egy algoritmus viszont nem tud „kilépni önmagából”.

Az új Manhattan-projekt árnyékában

Az amerikai vezetés, köztük Donald Trump és a Pentagon, az MI-t a legfontosabb stratégiai prioritások közé sorolja. 2024 májusában az Energiaügyi Minisztérium az X-en azt írta: „Az MI a következő Manhattan-projekt, és az Egyesült Államok meg fogja nyerni.” Az adminisztráció „AI Action Plan”-je egyértelműen versenyként ábrázolja az MI-fejlesztést – különösen Kínával szemben.

Herb Lin szerint ez a párhuzam félrevezető. „A Manhattan-projektnek volt eleje és vége, és tudtuk, mikor sikerült: amikor felrobbant a bomba. De mit jelent, ha az MI-nek van egy Manhattan-projektje? Mikor mondhatjuk, hogy befejeztük?” – tette fel a kérdést.

Kapcsolódó anyagok:

Kína kifejlesztett egy AI-tábornokot, mely képes önállóan irányítani a hadsereget

Amerika hadereje 2039-re részben robotizálódhat - nyilatkozta egy tábornok

Japán mesterséges intelligenciát és robotokat vetne be a hadseregbe

Franciaország 2040-re robothadsereget akar, az első robotokat már 2027-ben bevetné

Egy matematikus szerint 5 férfi miatt pusztulhat el a világ

Egyre több gazdag ember vesz luxusbunkert

Norvégiában bunkereket építenek felkészülendő a háborúra

Nem a klímaváltozás vagy az atomháború miatt halhat ki az emberiség

A nyitókép csak illusztráció, forrás: I

TOP 5