Skip to main content

A kép csak illusztráció (Forrás: Unsplash)

A chatbotokat már régóta alkalmazzák az ügyfeleket kiszolgáló vállalatok, már a mesterséges intelligenciás térnyerése előtt is, mert ezekkel hatékonyan lehet informálni a vásárlókat, akiknek így nem kell a weboldalon keresgélniük az érdeklődésükre számot tartó adatokat, és ezért hálásak is lehetnek. 

Egy rosszul működő csevegő azonban sok bajt okozhat az ügyfélnek és az üzemeltetőnek is, amit az Air Canada példája testesített meg, írja a PCW.

hirdetés

A per tárgya

A légitársaság ellen, amely több mint 350 repülőgépet használ, egy Jake Mofatt nevű ügyfél indított pert, miután a chatbot félrevezette őt. Az utas egy kedvezményes árú „gyászdíjas“ jegyet akart venni, mely akkor igényelhető, ha valakinek a családtagja meghal vagy súlyosan megbetegszik, és emiatt sürgősen a helyszínre kell utazni.

Az Air Canada chatbotjával beszélve Mofatt azt az információt kapta, hogy a gyászdíjas jegyek árából a kedvezményt utólag is levonhatja, ha már kifizette a jegyet, és ez 90 napig lehetséges a vásárlás után.

De a légitársaság valójában nem ad semmilyen utólagos kedvezményt, amit a honlapján egyértelműen jelez is. A chatbot tehát nagyot hibázott, mikor téves tájékoztatást adott, Mofatt azonban nem adta fel. Mikor a kedvezményre vonatkozó kérelmét elutasították, a bírósághoz fordult.

Furcsa védekezés

Az ügy itt vált igazán furcsává, mert az Air Canada azt állította az eljárásban, hogy a chatbotja egy önálló jogi személy, ezért a csevegőt kellene felelősségre vonni a rossz tájékoztatásért.

A bíróság azonban nem akceptálta, hogy az asszisztensnek lenne önálló akarata, és a nemrég hozott ítéletében kimondta, hogy az Air Canada felelős minden információért, amit a weboldalán megjelenít, akár egy interaktív chatbotból, akár egy statikus lapról származik. A légitársaságnak így most meg kell adnia Mofattnek a chatbot által ígért kedvezményt.

Az ítélet fontos következményekkel járhat, mert egyre több vállalat használja az OpenAI és más cégek technológiájára épülő mesterséges intelligenciás asszisztenseket, és az Air Canada kudarca egy világos figyelmeztetés lehet azoknak a vállalatoknak, akik a jövőben az algoritmusokra akarnák terelni a felelősséget a hasonló esetekben.

Amennyiben tetszett a cikk, illetve más hasonló híreket is szívesen olvasna, itt lájkolhatja Facebook oldalunkat

Kapcsolódó anyagok:

Rém egyszerű módszerrel keresett eddig 12 milliót egy fiatal férfi

Forrás - A nyitókép csak illusztráció, forrás: Photo by John McArthur on Unsplash

TOP 5