Îți recomandăm să încerci și aplicația Euronews România!

EXCLUSIV. Anil Seth, neurocercetător: ”Inteligența Artificială conștientă nu este ceva ce ar trebui să încercăm să facem”

Jurnalistul Vitalie Cojocari a discutat despre Inteligența Artificială cu Anil Seth, un cunoscut cercetător la nivel mondial, care studiază pe lângă AI și conștiința. În interviul pentru Euronews România, Anil Seth, cercetător, profesor de Neuroștiințe și Conștiință la Universitatea Sussex, spune că omenirea nu ar trebui să ofere conștiință Inteligenței Artificiale (IA). Altfel, riscurile pentru specia umană sunt uriașe. IA va avea propriile interese și poate decide, de pildă, că trebuie tăiate toate pădurile.

Inteligența Artificială, spune cercetătorul Anil Seth, este un instrument și trebuie folosit ca atare, dar să fim atenți la informațiile și produsele pe care le generează. Altfel, poate fabula, poate manipula, poate inventa informații.

Vitalie Cojocari, jurnalist Euronews România: Cum funcționează conștiința?

Anil Seth, profesor neuroștiințe cognitive, Universitatea din Sussex: Este una dintre cele mai vechi întrebări. Problema cu care ne confruntăm este creierul. Creierul este unul dintre cele mai complexe obiecte din univers. Are 86 de miliarde de celule cerebrale și de o mie de ori mai multe conexiuni. Este incredibil de complicat. Și cumva, prin activitatea creierului și a corpului, avem experiențe conștiente. Când ne trezim dimineața, nu suntem doar niște obiecte biologice care mergem să luăm micul dejun. Avem experiențe. Ne este foame, sete. Deschidem ochii. Vedem lucruri.

Cum se face că un obiect fizic poate avea experiențe, poate simți, poate vedea lucruri? Aceasta este una dintre cele mai vechi întrebări din știință și din filosofie. Și este o întrebare foarte importantă, cred, din două motive.

În primul rând, conștiința pentru noi toți este unicul lucru care contează cu adevărat. Tot ceea ce ni se întâmplă înseamnă ceva doar pentru că îl trăim. Ne simțim fericiți, ne simțim triști,

simțim bucurie, durere, suferință. Conștiința e un mister foarte personal pentru fiecare dintre noi, dar contează și practic. Dacă încercăm să înțelegem și să tratăm bolile mintale, psihiatrice, neurologice, acestea sunt adesea probleme foarte diferite legate de modul în care trăim lumea. Așadar nu cred că înțelegem și tratăm corespunzător afecțiunile de sănătate mintală decât dacă înțelegem cum funcționează conștiința.

Vitalie Cojocari: Ați descoperit ceva ce m-a uluit, despre cum vedem noi lumea. Ați vorbit despre asta și în cartea dumneavoastră, ”Being You”. Văd această masă, văd forma sau înălțimea acestei mese, dar în creierul nostrum se întâmplă diferit. Cum vedem lucrurile pentru conștiința noastră?

Anil Seth: E unul dintre cele mai fascinante și complicate aspecte ale acestei neuroștiințe a conștiinței. Și ni se pare că lumea se revarsă direct în mintea noastră prin intermediul ochilor și urechilor noastre, de parcă am avea acest acces la realitate așa cum este cu adevărat. Și această masă pare să fie așa cum este, nu pare să depindă deloc de creierul meu, dar observăm că nu este adevărat că, în loc să înregistreze pasiv lumea așa cum este, creierul generează întotdeauna în mod activ experiența noastră. Nu înseamnă că realitatea este falsă,masa există cu siguranță, este chiar aici. Dar felul în care trăim este întotdeauna o construcție activă a creierului nostru.

Așa că experimentăm lumea la fel de mult, dacă nu mai mult, din interior spre exterior, mai degrabă decât din exterior spre interior. Creierul nostru ne creează experiențele în moduri care nu sunt constrânse de acuratețe. Creierul nu a evoluat pentru a vedea lucrurile așa cum sunt, ci a evoluat pentru a vedea lucrurile în moduri care ne sunt utile.

Halucinația controlată

Vitalie Cojocari: Am un citat de-al dumneavoastră: ”Halucinăm tot timpul. Când ne punem de acord asupra situației date, o numim realitate.” Explicați-ne.

Anil Seth: Îmi place metafora percepției, că trăim lucrurile ca pe un fel de halucinație controlată. Sună puțin ciudat, pentru că, în mod normal, când ne gândim la halucinații, ne gândim la a percepe, la a trăi lucruri care nu există, care sunt false, care sunt greșite. De obicei, e în contrast cu experiența normală în care pare că vedem lucrurile așa cum sunt.

Dar cred că, de fapt, există o scară. Așadar, atunci când percepem lucrurile, ele încă vin din interior spre exterior, dar sunt controlate de semnale senzoriale care vin din lumea din corp. Deci experiențele noastre perceptuale sunt legate de lume în moduri care sunt utile, dar când acel proces merge prost, percepțiile noastre devin necontrolate și începem să vedem lucruri pe care alți oameni nu le văd.

Deci asta e ideea de halucinație controlată. Culoarea nu există independent de minte. E doar energie, este doar radiație electromagnetică. Creierul nostru alege pe trei lungimi de undă ale acelei energii. Nu sunt de fapt culori, sunt doar trei lungimi de undă. Și din aceste trei culoriexperimentăm milioane de nuanțe diferite. Deci, atunci când percepem culoarea, pare că există în lume, dar de fapt nu există.

Cézanne a spus despre culoare că este locul unde creierul și universul se întâlnesc. Cred că are dreptate.

Vitalie Cojocari: Îl citați în cartea dumneavoastră pe filosoful Arthur Schopenhauer:  „Omul poate face ce vrea. Dar el nu poate voi ceea ce vrea.” Întrebarea mea este: dacă nu putem voi ceea ce vrem, există cineva care poate face asta? Se poate asta? Vedem astăzi cum cercetătorii încearcă să pună computere și obiecte în creierul nostru.

Anil Seth: Aici apare chestiunea liberului arbitru. Este destul de greu să încerci să înțelegi cum creierul generează experiență. Dar, în acest întreg câmp al conștiinței, există problema specială a liberului arbitru pe care noi, ca ființe umane, o considerăm foarte importantă pentru noțiunea noastră despre ce înseamnă a fi eusau să ne simțim stăpâni asupra acțiunilor noastre.

Acum mă pot decide să iau acest pahar cu apă și să-l pun jos. Parcă vine din interior. Dar, așa cum a spus Schopenhauer, nu pot alege cu ușurință ceea ce vreau. Pot să fac ce vreau, dar nu pot alege ce vreau. Eu sunt englez. Așa că îmi place să beau un ceai dimineața, mai degrabă decât cafea. Dar așa sunt eu.

Nu decid că asta vreau să fac. Este ceva intrinsec în creierul meu, cea mai bună parte a mea. Și cred că există limite în ceea ce privește modul în care ne exprimăm liberul arbitru.

Da, putem forța puțin aceste limite. Ne putem schimba obiceiurile.

Primul pas în schimbarea obiceiurilor este să recunoaștem că ele există, dar n-o putem face. Nu putem schimba în mod arbitrar tot, avem un anumit număr de grade de libertate și operăm în cadrul acestora. Dar asta e bine. Adică așa ar trebui să fie lucrurile. Ideea că ne putem comporta în moduri care sunt complet neconstrânse de trecutul nostru și de cultura în care am crescut, de strămoșii pe care îi avem,

înseamnă a cere prea multși nu avem nevoie de asta. Avem nevoie doar de capacitatea de a acționa conform a ceea ce vrem, ceea ce ne dorim, ceea ce credem, ceea ce credem că este corect din punct de vedere moral și etic.

Și, în general, facem asta.

Vitalie Cojocari: Ceea ce discutăm chiar aici e foarte filosofic, foarte ipotetic, foarte teoretic. Dar aș dori să vă întreb despre implicațiile potențiale asupra cadrului dv. de procesare predictivă în domenii precum psihologia, neuroștiința și, mai ales, inteligența artificială.

Anil Seth: Psihologia și neuroștiința sunt domeniile din care provin aceste idei. Și ideea de bază aici este că creierul este o mașină de predicție și că tot ceea ce experimentăm, fie că este în lume sau în corp, emoțiile și dispozițiile, toate sunt un fel de predicții bazate pe creier. Și cred că acest lucru este foarte important, pentru că înseamnă că lucrurile, cum ne trezim, ne vedem de viața de zi cu zi, vrem o cafea, mergem la muncă, felul cum par lucrurile nu este întotdeauna așa cum sunt.

Așa cum culoarea nu este de fapt acolo, este parțial în creier. Recunoașterea asta deschide un mic gol pentru noi. Și putem folosi acest gol. Putem recunoaște că pot exista și alte moduri de a vedea lucrurile, de a trăi lucrurile, mai degrabă decât să iau lucrurile așa cum sunt, dacă mă simt frustrat într-o situație, în loc să presupun că lumea mă frustrează, pot admite că e de fapt ceva ce face creierul meu și poate asta mă va ajuta să reacționez mai bine.

Deci există o mulțime de implicații în psihologie. În inteligența artificială, lucrurile se schimbă extrem de repede. Și experiența mea era de fapt în inteligența artificială. Așa că m-au uimit progresele care se fac. Sunt chiar înfricoșătoare unele dintre ele.

Vitalie Cojocari: În decurs de câți ani ați văzut aceste progrese?

Anil Seth: Doctoratul meu în IA a fost de la mijlocul anilor 1990 până în 2000, dar în ultimii 5-7 ani acest progres a început să se accelereze. Și în ultimii 2-3 ani, acest lucru a ajuns cu adevărat la public. Sunt multe de spus despre IA, cred că va fi atât benefic pentru societate, dar și foarte perturbator și potențial periculos în anumite privințe.

Beneficiile Inteligenței Artificiale

Vitalie Cojocari: Să vorbim în primul rând despre beneficiile pentru societate, ce fel de beneficii putem avea de la IA?

Anil Seth: Unul dintre colegii mei de filosofie, Andy Clarke, a vorbit mult despre mintea extinsă. Ne place să credem că mintea noastră este în interiorul craniului, asta face creierul. Dar, de fapt, modul în care gândim, modul în care înțelegem lucrurile depinde deja de tehnologiile cu care interacționăm. Memoria mea este deja pe telefon într-o oarecare măsură și IA poate să ne extindă mintea și mai mult. Este o tehnologie puternică pe care o putem consulta, îi putem pune întrebări sau o putem folosi în anumite moduri pentru a compensa lucrurile la care mintea umană nu se pricepe prea bine. Vă dau un exemplu. Noi, ca creaturi biologice care au evoluat în anumite medii, nu suntem foarte buni la gândire pe termen lung, nu avem reacții emoționale adecvate pentru lucrurile care se desfășoară de-a lungul deceniilor sau secolelor.  

Acesta este unul dintre motivele pentru care nu ne-am priceput să ne confruntăm cu realitățile schimbărilor climatice. Nu le simțim pentru că nu am evoluat să simțim asta. Așadar, avem aceste prejudecăți cognitive și emoționale care ne pun ochelari de cal, care ne împiedică să ne confruntăm cu anumite tipuri de probleme. IA poate să ne ajute la asta, căci poate fi liberă de tipurile de părtiniri pe care le avem noi.

Bineînțeles că IA poate avea alte preconcepții. Asta face parte din pericol. Dar pentru că este puternică, integrând cunoștințe din atât de multe surse diferite, putem învăța, cred, să o folosim ca minte artificială sau complementară. Cheia aici este să ne gândim la IA nu ca la o persoană artificială sau ca la un fel de coleg, ci ca la un instrument pe care încă nu ne-am dat seama cum să-l folosim.

Nu știu dacă îți amintești, eu îmi amintesc prima dată când am văzut un motor de căutare pe internet, în 1995. Am fost uimit. Cum puteam tasta ceva și obțineam informații despre orice, dar ne-a luat foarte mult timp ca noi, în societate, să ne dăm seama cum să îl folosim. Sigur, acum e folosit pentru binele societății, dar are și o latură periculoasă, și una proastă, așa cum am văzut cu rețelele de socializare și așa mai departe.

Același lucru se va întâmpla cu IA, poate fi folosită în scopuri extraordinar de bune, pentru a rezolva unele probleme presante ale schimbărilor climatice în medicină. A fost deja folosită pentru proiectarea medicamentelor în tratarea diferitelor boli. La lucruri de genul ăsta, cred că IA va fi foarte bună. Dar trebuie să învățăm cum să echilibrăm beneficiile și riscurile.

Vitalie Cojocari: Și riscuri sunt, de exemplu mulți se tem că le va lua locul de muncă. Este un risc real?

Anil Seth: Cred că da. Cu orice inovație tehnologică majoră, vine o perturbare pentru locurile de muncă ale oamenilor, pentru modul în care funcționează societatea. La fel cum unele locuri de muncă au dispărut când au apărut calculatoarele și computerele, și alte locuri de muncă vor fi amenințate.

Vitalie Cojocari: Și acest lucru este rău? Atunci când a avut loc revoluția industrială în Marea Britanie, o mulțime de oameni au fost împotriva mașinilor care le-au luat locurile de muncă. Acum este similar, într-un fel. Este acesta un risc real?

Anil Seth: Aceia erau așa-numiții luddiți în secolul al XIX-lea. Mergeau și distrugeau acele fabrici care automatizau, care țeseau pânze, țeseau haine. Așa a fost întotdeauna. Și este o problemă. Cred că în societate există o responsabilitate de a încerca să gestionăm aceste schimbări.

Nu le poți împiedica, dar noile tehnologii deschid, de asemenea, noi oportunități, vor exista noi tipuri de locuri de muncă, joburi noi. Majoritatea locurilor de muncă care există azi și care nu existau deloc acum 100 de ani nu ar avea niciun sens genul de locuri de muncă care există astăzi. Sigur, acest lucru nu este o consolare pentru o persoană a cărei slujbă este amenințată.

Deci, de aceea, societatea trebuie să gestioneze schimbarea și să se asigure că cei dezavantajați nu suferă, că costurile acestei schimbări nu cad doar pe câțiva oameni, ci sunt suportate egal. Da, există riscuri în ceea ce privește locurile de muncă, de exemplu modelele mari de limbaj care au avansat poate cel mai rapid dintre tehnologiile IA. Pot scrie fluent acum. Și deci joburi care implică scrisul...

Vitalie Cojocari: Ca de exemplu al jurnaliștilor.

Anil Seth: Poate. Ei bine, va fi interesant. Cred că jurnaliștii ar putea să folosească modelele lingvistice. Dar ideea că vor fi înlocuiți este exagerată, pentru că un lucru despre IA în acest moment, iar acesta este unul dintre riscuri, este că este foarte bună la imitarea limbajului, dar nu putem avea încredere în nimic din ceea ce spune.

Oamenii spun că halucinează, eu cred că ea fabulează, inventează, pentru că modelele lingvistice nu înțeleg de fapt nimic, ele ne dau impresia că înțeleg, dar tot ce fac este să ofere un fel de răspuns mediocru luat de pe Internet despre ceea ce ar putea spune o ființă umană obișnuită. Deci atunci când recunoaștem că există încă lucruri pe care le putem adăuga... Înțelegem ce înseamnă text, nu doar prezicem care va fi următorul cuvânt. Și încă mai este loc pentru mințile umane. Trebuie doar să învățăm cum să coexistăm cu aceste lucruri.

Vitalie Cojocari: Veți fi intervievat de roboți în următorii ani? Sau contează emoția care aduce mai aproape un jurnalist sau un intervievator? Cât de importante sunt emoțiile într-un viitor IA și în acest domeniu?

Anil Seth: Cred că sunt foarte importante și nouă, oamenilor, ne place să credem că suntem niște creaturi foarte raționale, dar suntem un amestec de rațiune și emoție și avem nevoie de ambele ca să funcționăm în lume în mod corespunzător, iar IA nu este nici una, nici alta, nu e nici rațional, nici emoțional. Este un fel de minte statistică. Ne oferă doar cele mai probabile răspunsuri.

Și acest lucru este destul de periculos pentru noi, deoarece IA este foarte bună, mai ales cu aceste modele de limbaj, la a mima ceea ce ar putea spune oamenii. Așadar, modelele de limbaj ne-ar putea da impresia că au emoții sau că ele raționează și înțeleg lucrurile, dar de fapt nu fac asta. Iar noi, oamenii, avem tendința de a proiecta proprietăți și calități asupra lucrurilor.

Este antropomorfism. Dacă ceva pare similar cu noi, avem tendința să spunem că înțelege, că are emoții. Și asta poate fi periculos, deoarece va însemna că facem presupuneri și predicții despre cum se comportă aceste lucruri, deoarece ne bazăm pe ceea ce am face noi, pentru că simțim o emoție sau o înțelegere, dar IA nu are asta.

Deci previziunile pot fi corecte uneori, dar apoi vor fi greșite. Și dacă nu știm când sistemul se va comporta brusc diferit, acesta este un risc. Și cred că asta ne readuce de fapt la conștiință, pentru că este foarte ușor să presupunem că IA este conștientă dacă spune lucruri pe care tu și cu mine am putea să le spunem ca ființe umane conștiente, dar IA nu este conștientă.

Este doar un algoritm care se desfășoară pe un computer. Și deci dacă presupunem că este conștientă, dacă simțim că este, când ea nu este, asta, din nou, ne îndeamnă să facem presupuneri despre IA care pot merge prost și, de asemenea, să ajungem să ne pese de IA în moduri în care poate nu ar trebui și să nu ne pese cum ar trebui de alte lucruri, cum ar fi animalele sau alte ființe umane. Deci societatea nu este încă bine echipată pentru această situație în care vom interacționa cu entități despre care credem că au minte în conștiința noastră, când în realitate nu au.

Riscurile Inteligenței Artificiale

Vitalie Cojocari: Interesant. Care ar putea fi alte riscuri pentru IA? Ce vedeți astăzi, dincolo de perturbarea joburilor, care sunt riscurile?

Anil Seth: Ar putea fi important să distingem riscurile pe termen scurt, imediate, de cele pe termen lung. Pe termen scurt, nici nu trebuie să ne gândim la conștiință. Ne putem gândi la perturbările pe care le-am discutat, dar și la lucruri precum dezinformarea și proasta informare, am văzut deja pe rețelele de socializare cât de mult daune pot fi aduse... Doar prin amplificarea conținutului...

Vitalie Cojocari: Precum la Brexit.

Anil Seth: Da. Eu am fost întotdeauna ferm contra Brexit. Mă consider european. Dar da, poți amplifica orice fel de conținut acum, iar ceea ce aduce IA nu este doar amplificarea conținutului, ci generarea de conținut. Și nu, nu te poți baza pe asta. Modelele de limbaj inventează. Avem algoritmi de generare de imagini care pot produce videoclipuri ce nu se pot deosebi de cele reale.

Înseamnă că pur și simplu nu mai putem avea încredere în ceea ce vedem, ceea ce auzim. Iar oamenii care urmăresc acest interviu s-ar putea întreba... „Aceștia sunt cu adevărat oameni? Ei spun ceea ce spun?”

Acest lucru este problematic, deoarece societățile, cele democratice, desigur, dar alte societăți, tind să se bazeze pe oameni care au acces la informații despre care, cel puțin la un anumit nivel, știu că sunt adevărate. Așadar cred că o explozie de potențială dezinformare este o amenințare reală pentru modul în care funcționează societățile. IA are și probleme de părtinire, iar algoritmii sunt antrenați pe date, iar datele nu reflectă de obicei societatea în amploarea ei.

A fost un exemplu celebru în acest sens, cu algoritmi de recunoaștere a feței ce nu s-au descurcat cu recunoașterea fețelor persoanelor cu piele închisă la culoare, pentru că algoritmii au fost instruiți mai mult pe oameni cu piele albă. Și aceste preconcepții nu trebuie să fie neapărat intenționate. Pur și simplu se strecoară în date din întâmplare, în anumite moduri. Deci există o mulțime de amenințări pe termen scurt cu IA.

Vitali Cojocari: Iar pe termen lung?

Anil Seth: Pe termen lung, există mult mai multă incertitudine și amenințările pe termen lung sunt motivate de filmele SF, ne facem griji că IA devine mai inteligentă decât oamenii și domină lumea, ne temem că IA devine conștientă și astfel de lucruri.

Inteligența Artificială și conștiința

Vitalie Cojocari: Este grav ca IA să devină conștientă?

Anil Seth: Cred că da. Deși mai e mult până acolo. În teoriile mele despre conștiință, ea este legată de faptul că suntem în viață. Suntem creaturi vii, din carne și oase. Și acest lucru este esențial pentru conștiință. Foarte probabil este esențial. Deci, din această perspectivă, nu vom avea IA conștientă până nu vom avea mașini vii și nu suntem încă pe drumul acela.

Dar s-ar putea să greșesc și există și alte teorii despre conștiință care sugerează că este mult mai plauzibil. Dar cred că este ceva ce nici nu ar trebui să încercăm să facem.

Vitalie Cojocari: De ce nu?

Anil Seth: Din două motive. Primul motiv este că, de îndată ce ceva este conștient, are propriile sale interese, nu doar interesele pe care i le dăm noi. În IA există această o problemă numită alinierea valorilor. Cum ne asigurăm că sistemele artificiale se comportă în moduri care sunt aliniate la ceea ce noi, ca societate umană sau planetară, credem că este bine?

Este foarte greu de rezolvat această problemă, pentru că putem crede că facem ceva bun, dar ratăm un pas și dintr-o dată IA decide să radă toate pădurile sau ceva de genul acesta, deoarece scopul său nu specifică să nu facă asta. E destul de dificil ca atare, dar când ceva este conștient, are și propriile sale interese.

Și asta face și mai greu să ne asigurăm că va acționa în interesul nostru. Celălalt motiv și, cred, problema mai mare este că atunci când ceva este conștient, are statut moral, are potențialul de a suferi. Și dacă noi, ca oameni, creăm IA conștientă și creăm IA care are potențialul de a suferi, avem obligația de a minimiza acea suferință.

Deja nu ne descurcăm prea bine cu creaturile care există deja în lume, oamenii, animalele. Antecedentele noastre în a minimiza suferința nu sunt grozave. Ideea că am aduce în lume o formă potențial nelimitată de suferință suplimentară, prin apăsarea unui buton am putea aduce la existență în fermele de servere din lume lucruri care ar putea avea experiențe negative, asta e ceva foarte dificil. Deci cred că IA conștientă nu este ceva ce ar trebui să încercăm să facem. În domeniul tehnologiei, adesea oamenii spun „să facem asta pentru că putem, pentru că este grozav”. Nu aceasta este calea de urmat, trebuie să fim foarte atenți și să nu facem lucruri pur și simplu pentru că putem, ci să ne întrebăm dacă ar trebui.

Vitalie Cojocari: Am văzut deja în SUA, mă refer la Neuralink și Elon Musk. Ce credeți despre asta? Care sunt avantajele și dezavantajele?

Anil Seth: Neuralink este cel mai recent dintr-o linie de tehnologie destul de veche, o industrie care dezvoltă ceea ce numim implanturi cerebrale. Sunt electrozi care intră direct în creierul uman, care pot înregistra ceea ce se întâmplă și, de asemenea, pot stimula, astfel încât poți modifica activitatea din creier. Aceasta este o tehnologie cu mare potențial, deoarece atunci când ne putem interacționa direct cu creierul, avem potențialul de a trata o gamă largă de probleme medicale, paralizia, boala Parkinson și multe alte boli care rezistă în prezent tratamentului.

Implanturile cerebrale pot ajuta cu adevărat. Deci există cu siguranță o latură pozitivă. Neuralink în special încearcă să dezvolte implanturi cerebrale care implică mulți electrozi, nu doar unul sau doi, ci zeci sau sute. Și cred că acest lucru ar putea fi foarte important. Neuralink a primit recent aprobarea de la FDA, Administrația SUA pentru Alimente și Medicamente, pentru a face primele studii clinice pe oameni

Acesta este un pas mare, dar nu este complet nou. Adică implanturile cerebrale au fost deja folosite la oameni de mult timp pentru a trata afecțiuni precum boala Parkinson și chiar depresia.

Vitalie Cojocari: Există probleme etice în acest sens?

Anil Seth: Există o mulțime de probleme etice. Prima este că de fiecare dată când pui ceva în creier, poți face și ceva rău. Există o mulțime de preocupări legate de siguranță cu privire la implanturile cerebrale. Unele dintre ele au fost rezolvate, altele nu. Apoi există și preocupări etice, de exemplu. Este o încălcare a vieții personale?

Dacă „asculți” direct creierul oamenilor și ai date din creierul lor, ar putea fi. Ce faci cu acele date? Există un pic de îngrijorare. Dar sunt probleme rezolvabile. Putem avea reglementări pentru modul în care utilizăm datele care provin direct din creierul oamenilor. Deci cred că echilibrul general pentru lucruri precum Neuralink este în general pozitiv.

Lucrul care mă îngrijorează puțin este că, în special cu Neuralink, progresele lui Elon Musk din ultimele două decenii au tins să fie despre probleme de inginerie, construirea de rachete, de mașini electrice. Dar știința acestor lucruri a fost rezolvată cu mult timp în urmă. A fost în principal o problemă de inginerie. Cum facem aceste lucruri în moduri care sunt accesibile și la scară? Creierul este diferit. Creierul nu este o problemă de inginerie. Nu înțelegem cum funcționează de fapt creierul. Așadar, să o tratăm ca pe o problemă de inginerie, care doar prin implantarea mai multor electrozi va putea brusc să transforme modul în care funcționează mintea și creierul nostru, cred că asta e puțin cam optimist. Așa că va fi interesant să vedem ce se întâmplă în viitor cu Neuralink.

Și există și alte companii care au abordări diferite, dar cred că suntem încă departe de cartea „Neuromancer” a lui William Gibson. Îmi amintesc că am citit acest vechi roman SF. E despre o lume în care, practic, lumea se plimbă tot timpul cu implanturi cerebrale și își poate oferi orice fel de experiență dorește.

Cred că suntem foarte departe de asta, dar totuși merită să ținem cont și cred că aceasta este de fapt valoarea SF-ului. Aceste scenarii par adesea foarte îndepărtate și s-ar putea să fie, dar întotdeauna merită să ne gândim la ele, pentru că este bine să fii pregătit.

Vitalie Cojocari: Credeți că am putea să ne luăm conștiința și să o punem pe o mașină pentru a avea viață veșnică?

Anil Seth: Nu cred. Este o idee foarte atrăgătoare, nu-i așa? De-a lungul istoriei, oamenii și-au dorit mereu nemurirea, într-un fel sau altul. Cred că acesta este de fapt motivul pentru a construi un fel de mașinării conștiente, oamenii vor să-și poată încărca mințile și să trăiască pentru totdeauna, dar cred că acest lucru este foarte puțin probabil. Cred că suntem creaturi biologice vii, parte a naturii, nu în afara naturii

Și trebuie să recunoaștem asta și să simțim că facem parte din lumea naturală, nu să încercăm să trăim pentru totdeauna în circuitele unui supercomputer. Nu cred că va funcționa și cred că este o distragere de la a ne trăi viața pe care o putem trăi și pe care ar trebui să o trăim acum.

 

ARTICOLE DIN ACEEAȘI CATEGORIE