Cercetarile privind obtinerea unei inteligente artificiale ”constiente” stirnesc controverse

Sunt oare tehnologiile bazate pe inteligenţă artificială pe cale să devină „conştiente”? Un inginer de la Google a fost suspendat din funcţie după ce a răspuns afirmativ la această întrebare, declanşînd o dezbatere care a depăşit sfera companiilor din Silicon Valley despre un subiect care ţine tot mai puţin de universul ştiinţifico-fantastic, informează AFP, potrivit agerpres.

LaMDA, un program informatic al Google conceput pentru a genera roboţi de conversaţie online (chatbots), „este foarte clar în ceea ce doreşte şi în ceea ce consideră a fi drepturile sale în calitate de persoană”, a scris Blake Lemoine într-un articol publicat în Medium weekendul trecut.

Această opinie a fost în mare parte considerată în cel mai rău caz absurdă sau în cel mai bun caz prematură atît de Google – un gigant în industria noilor tehnologii –, cît şi de comunitatea ştiinţifică.

Programele bazate pe învăţare automată (machine learning) sunt „antrenate” pe baza unor jocuri de date ce abordează concepte de conştiinţă sau de identitate şi care sunt, deci, capabile să ofere iluzia unor astfel de concepte.

„Programele care au acces la internet pot să răspundă la orice întrebare”, însă acest lucru nu le face totuşi credibile, a declarat profesoara Susan Schneider.

Această fondatoare a unui centru de cercetare la Florida Atlantic University dezaprobă totuşi sancţiunile adoptate împotriva inginerului de la Google.

Compania californiană are tendinţa „de a încerca să păstreze tăcerea asupra problemelor etice”, a spus Susan Schneider, însă „noi avem nevoie de dezbateri publice asupra acestor subiecte spinoase”.

„Sute de cercetători şi ingineri au purtat discuţii cu LaMDA şi nimeni, după informaţiile noastre, nu a formulat astfel de afirmaţii şi nu a personalizat LaMDA aşa cum a făcut-o Blake”, a declarat Brian Gabriel, purtător de cuvînt al grupului Google.

Puterea imaginaţiei

De la Pinocchio la filmul „Her” – care prezintă povestea unei relaţii romantice dintre un om şi un chatbot –, ideea unei entităţi non-umane ce prinde viaţă „este prezentă în imaginaţia noastră”, notează Mark Kingwell, profesor de filosofie la Universitatea din Toronto.

„Devine deci dificil să respectăm distanţa dintre ceea ce ne imaginăm ca fiind posibil şi ceea ce este cu adevărat real”, a adăugat el.

Inteligenţele artificiale (IA) au fost mult timp evaluate cu ajutorul testului Turing: dacă persoana care coordonează testul poartă o conversaţie cu un computer fără să îşi dea seama că nu discută cu o fiinţă umană, atunci maşina „a trecut testul”.

„Însă este destul de uşor pentru un software IA să reuşească acest lucru în 2022”, remarcă Mark Kingwell.

„Cînd auzim o serie de cuvinte într-o limbă pe care o vorbim, (…) credem că percepem spiritul persoanei care generează acele fraze”, a explicat Emily Bender, expertă în lingvistică informatică.

Oamenii de ştiinţă pot chiar să ofere o anumită personalitate unui software IA.

„De exemplu, putem să facem un program AI să treacă drept o persoană nevrotică”, antrenînd-o cu ajutorul unor conversaţii pe care o persoană depresivă ar putea să le aibă, a explicat Shashank Srivastava, profesor de ştiinţe informatice la Universitatea Carolina de Nord.

Dacă, în plus, acel chatbot este integrat într-un robot umanoid cu expresii faciale ultra-realiste sau dacă un software scrie poezii şi compune muzică, aşa cum s-a întîmplat deja, simţurile noastre biologice devin uşor de înşelat.

„Acum ne aflăm în plină campanie mediatică despre IA”, a subliniat Emily Bender.

„Şi mulţi bani sunt investiţi în asta. Deci angajaţii din acest sector au sentimentul că lucrează la ceva important, la ceva real, şi nu mai respectă neapărat distanţa necesară”, a adăugat ea.

„Binele omenirii”

Atunci cum am putea noi să determinăm cu certitudine dacă o entitate artificială a devenit sensibilă şi conştientă?

„Dacă se reuşeşte să se înlocuiască ţesuturi neuronale cu cipuri electronice, va fi un semnal că maşinile pot fi potenţial conştiente”, a sugerat Susan Schneider.

Ea urmăreşte cu atenţie progresele obţinute de Neuralink, un start-up creat de Elon Musk pentru a fabrica implanturi cerebrale în scopuri medicale, dar şi pentru „a garanta viitorul omenirii ca civilizaţie în raport cu IA”, după cum a explicat CEO-ul Tesla şi SpaceX.

Opinia miliardarului Sud-african se înscrie astfel într-o viziune în care maşinile atotputernice ar risca să preia controlul pe Terra.

Potrivit lui Mark Kingwell, lucrurile stau însă complet invers.

Dacă va apărea într-o bună zi o entitate autonomă, capabilă să stăpînească o limbă, „să se deplaseze de una singură într-un mediu”, să manifeste preferinţe şi vulnerabilităţi, „va fi important să nu o considerăm o sclavă (…) şi să o protejăm”, a explicat acelaşi expert.

Blake Lemoine nu este convins în legătură cu „conştiinţa” programului LaMDA. Însă el a redat un anumit suflu unei dezbateri tot mai politizate şi care seamănă tot mai puţin cu o himeră.

Ce „doreşte” de fapt programul LaMDA, potrivit inginerului suspendat din funcţie? „El vrea ca Google să facă din binele omenirii o prioritate şi să fie recunoscut ca un angajat, nu ca o proprietate deţinută de Google”, a afirmat el. 

02.11.24 - 13:23
03.11.24 - 12:09
05.11.24 - 00:15
01.11.24 - 13:35
01.11.24 - 19:19
10.11.24 - 08:42
01.11.24 - 19:20
01.11.24 - 13:38
04.11.24 - 10:57
02.11.24 - 13:20
04.11.24 - 16:28
05.11.24 - 00:02
01.11.24 - 13:41
02.11.24 - 13:26
01.11.24 - 13:40