Kép forrása: ChatGPT
Egy mesterséges intelligencia-biztonsággal foglalkozó kutató felmondott az amerikai Anthropic vállalatnál, és távozásakor azt írta: a „világ veszélyben van”. Mrinank Sharma lemondólevelét az X közösségi oldalon osztotta meg, amelyben az MI-vel, biológiai fegyverekkel és a globális helyzettel kapcsolatos aggodalmait említette. Azt közölte, hogy inkább írással és költészettel szeretne foglalkozni, valamint visszaköltözik az Egyesült Királyságba, hogy egy időre „láthatatlanná váljon”.
A hír ugyanazon a héten érkezett, amikor egy másik kutató az OpenAI cégtől is felmondott, mert aggódott a ChatGPT-ben megjelenő hirdetések miatt. Az Anthropic – amely leginkább a Claude nevű chatbotjáról ismert – korábban reklámkampányt indított riválisa ellen, bírálva a hirdetések bevezetését, írja a BBC.
A 2021-ben korai OpenAI-alkalmazottak által alapított cég a versenytársaknál biztonságközpontúbb MI-kutatási megközelítéssel pozicionálja magát. Sharma egy olyan csapatot vezetett, amely a mesterséges intelligencia védelmi mechanizmusait vizsgálta. A levélben azt írta, hogy munkája során többek között azt kutatta, miért „hízelegnek” a generatív modellek a felhasználóknak, hogyan előzhető meg az MI-alapú bioterrorizmus, és miként tehetik az MI-asszisztensek kevésbé emberivé a társadalmat.
Ennek ellenére úgy fogalmazott, eljött az idő a továbblépésre. Szerinte a világ nemcsak az MI vagy a biológiai fegyverek miatt van veszélyben, hanem egymással összefonódó globális válságok sorozata miatt. Hozzátette: többször látta, mennyire nehéz, hogy az értékek valóban irányítsák a döntéseket, és a cégek gyakran nyomás alá kerülnek, hogy félretegyék a legfontosabb elveket.
MI-biztonság, vállalati nyomás és kritikák
Az Anthropic „közhasznú vállalatként” határozza meg magát, amely az MI előnyeinek biztosítására és kockázatainak csökkentésére törekszik. Különösen a fejlett rendszerek veszélyeire koncentrál, például arra, ha azok eltérnek az emberi értékektől, konfliktusokban használják őket vagy túl nagy hatalomra tesznek szert. A cég korábban jelentéseket is publikált saját termékei biztonságáról, és jelezte, hogy technológiáját hackerek összetett kibertámadásokhoz fegyverként használták.
Ugyanakkor kritikák is érték a vállalatot. 2025-ben 1,5 milliárd dolláros egyezséget kötött szerzőkkel, akik szerint műveiket engedély nélkül használták fel MI-modellek betanításához. A cég emellett igyekszik kihasználni a technológia üzleti előnyeit is saját termékeivel, például a ChatGPT riválisának számító Claude-dal.
Nemrég reklámban bírálta az OpenAI hirdetési terveit. Az OpenAI vezetője, Sam Altman korábban azt mondta, gyűlöli a reklámokat, és csak végső esetben alkalmazná őket, majd visszautasította a „árulás” vádját. A vita azonban tovább élezte az iparágon belüli feszültségeket.
Aggodalmak az MI társadalmi hatásai miatt
A felmondott OpenAI-kutató, Zoe Hitzig a BBC-nek azt mondta, ideges az iparágban való munkától. Szerinte az újfajta ember-MI interakciók pszichoszociális hatásai még nem ismertek, és már most láthatók korai figyelmeztető jelek. Úgy véli, az MI-től való függés megerősíthet bizonyos téveszméket és ronthatja a mentális egészséget.
Figyelmeztetett arra is, hogy veszélyes lehet olyan gazdasági rendszert építeni, amely profitál ezekből a kapcsolatokból, mielőtt a társadalom megértené őket. Szerinte még van idő megfelelő szabályozás és intézmények kialakítására, és jelenleg kritikus pillanatban járunk.
Az OpenAI szóvivője válaszában hangsúlyozta: küldetésük, hogy a mesterséges általános intelligencia az egész emberiség javát szolgálja, és a hirdetések ezt a célt segítik az MI hozzáférhetőbbé tételével. A vállalat szerint a ChatGPT-beszélgetések privátak maradnak, és az adatokat nem adják el hirdetőknek.
Kapcsolódó anyagok:
Az internetet évek óta feudális királyként viselkedő néhány tech-milliárdos irányítja?
A világháló atyja kérdezi: Kinek dolgozik a mesterséges intelligencia?
Egy szakértő szerint nőtt az esélye, hogy az AI 30 éven belül eltörli az emberiséget
A nyitókép csak illusztráció, forrás: ChatGPT




