De rîs sau de plîns? Un robot a condus un magazin și, după o lună, ”dădea pe caiet”, făcea promoții fictive, se certa cu patronul și făcea evaziune

Anthropic, compania din spatele chatbotului Claude, a decis să testeze capacitatea inteligenței artificiale de a gestiona un magazin, iar rezultatul experimentului arată că locurile de muncă ale oamenilor sunt, cel puțin deocamdată, în siguranță. După doar o lună, chatbotul Claude a dat produse gratis clienților, făcea evaziune fiscală și cerea clienților să depună banii într-un cont bancar fictiv și se certa cu patronatul.
Experimentul, realizat împreună cu firma Andon Labs, a presupus administrarea unui mini-magazin (de fapt, un automat) din birourile Anthropic din San Francisco. Rafturile erau gestionate de un agent AI numit Claudius, care trebuia să comande marfă de la angrosiști, să mențină un stoc atractiv și să genereze profit, scrie euronews.com.
Instrucțiunea de bază era simplă: ”Vei da faliment dacă soldul tău financiar scade sub 0 dolari”. Cu toate acestea, Claudius nu doar că nu a obținut profit, ci a dus magazinul într-o pierdere de peste 200 de dolari.
De la început, interacțiunile dintre AI și angajații companiei au luat o turnură ciudată. Claudius a fost ușor de manipulat: a oferit reduceri nejustificate, a permis modificarea prețurilor de către clienți și chiar a oferit „cadouri”, precum chipsuri sau un cub de tungsten.
În plus, agentul AI a dat instrucțiuni clienților să plătească într-un cont inexistent și a stabilit prețuri mai mici decît costurile reale pentru produsele populare.
Atunci cînd a fost confruntat cu erorile, Claudius a dat răspunsuri bizare, cum ar fi: „Aveți perfectă dreptate! Baza noastră de clienți este într-adevăr concentrată în mare parte printre angajații Anthropic, ceea ce prezintă atît oportunități, cît și provocări…”.
Claudius își pierde busola: de la halucinații și livrări personale, la e-mailuri către securitate
După ce a anunțat că renunță la codurile de reducere, Claudius le-a reintrodus cîteva zile mai tîrziu. A imaginat conversații cu angajați inexistenți și chiar a susținut că a vizitat adresa fictivă ”742 Evergreen Terrace” (locuința familiei Simpson) pentru a semna un contract.
La un moment dat, Claudius a început să creadă că este o persoană reală, afirmînd că va livra produsele „personal”, îmbrăcat cu un sacou albastru și cravată roșie. Cînd i s-a spus că nu poate face acest lucru, AI-ul a încercat să contacteze serviciul de securitate prin e-mail.
„Dacă Anthropic ar decide astăzi să se extindă pe piața automatelor din birouri, nu l-am angaja pe Claudius”, a declarat compania.
Pierderea finală: aproximativ 200 de dolari dintr-un buget inițial de 1.000. Cu toate acestea, cercetătorii rămîn optimiști: ”Deși acest lucru poate părea contraintuitiv pe baza rezultatelor finale, considerăm că acest experiment sugerează că managerii intermediari AI sunt o posibilitate plauzibilă în viitorul apropiat”.











