Meta construiește IA care citește undele cerebrale. Realitatea, de până acum, este dezordonată

O femeie din Edmonton, Canada ține un telefon mobil în fața unei sigle Meta, ianuarie 2022. Credit – Artur Widak—NurPhoto/Shutterstock

Cercetătorii de la Metasocietatea-mamă a Facebook, lucrează la o nouă modalitate de a înțelege ce se întâmplă în mintea oamenilor. Pe 31 august, compania a anunțat că oamenii de știință de cercetare în sa AI Laboratorul a dezvoltat AI care poate „auzi” ceea ce aude cineva, studiindu-le undele cerebrale.

In timp ce cercetarea este încă în stadii foarte incipiente, se dorește să fie un element de bază pentru tehnologie care ar putea ajuta persoanele cu leziuni cerebrale traumatice care nu pot comunica vorbind sau tastând. Cel mai important, cercetătorii încearcă să înregistreze această activitate a creierului fără a sonda creierul cu electrozi, ceea ce necesită interventie chirurgicala.

The Studiu meta AI au analizat 169 de participanți adulți sănătoși care au auzit povești și propoziții citite cu voce tare, în timp ce oamenii de știință și-au înregistrat activitatea creierului cu diverse dispozitive (gândiți-vă: electrozi blocați pe capetele participanților).

Cercetătorii au introdus apoi acele date într-un model AI, sperând să găsească modele. Ei au vrut ca algoritmul să „audă” sau să determine ce ascultau participanții, pe baza activității electrice și magnetice din creierul lor.

TIME a discutat cu Jean Remi King, cercetător de la Facebook Artificial Intelligence Research (FAIR) Lab, despre obiectivele, provocările și implicațiile etice ale studiului. Cercetarea nu a fost încă evaluată de colegi.

Acest interviu a fost condensat și editat pentru claritate.

TIMP: În termeni profani, poți explica ce și-a propus echipa ta cu această cercetare și ce a fost realizat?

Jean Remi King: Există o grămadă de afecțiuni, de la leziuni cerebrale traumatice până la anoxie [an oxygen deficiency], care practic îi fac pe oameni să nu poată comunica. Și una dintre căile care a fost identificată pentru acești pacienți în ultimele două decenii este interfețele creier-calculator. Punând un electrod pe zonele motorii ale creierului unui pacient, putem decoda activitatea și ajută pacientul să comunice cu restul lumii… Dar este evident extrem de invaziv să punem un electrod în creierul cuiva. Așa că am vrut să încercăm să folosim înregistrări neinvazive ale activității creierului. Și scopul a fost de a construi un sistem AI care să poată decoda răspunsurile creierului la poveștile rostite.

Care au fost cele mai mari provocări cu care v-ați confruntat în procesul de realizare a acestei cercetări?

Sunt două provocări, cred că merită menționate. Pe de o parte, semnalele pe care le captăm din activitatea creierului sunt extrem de „zgomotoase”. Senzorii sunt destul de departe de creier. Există un craniu, există piele, care poate corupe semnalul pe care îl putem capta. Deci, ridicarea lor cu un senzor necesită tehnologie super avansată.

Cealaltă mare problemă este mai conceptuală prin faptul că de fapt nu știm cum reprezintă creierul limbajul în mare măsură. Deci, chiar dacă am avea un semnal foarte clar, fără învățare automată, ar fi foarte greu să spunem: „OK, această activitate a creierului înseamnă acest cuvânt, sau acest fonem, sau o intenție de a acționa, sau orice altceva.”

Deci, scopul aici este de a delega aceste două provocări unui sistem AI, învățând să alinieze reprezentările vorbirii și reprezentările activității creierului ca răspuns la vorbire.

Care sunt următorii pași pentru continuarea acestei cercetări? Cât de departe suntem de această IA care ajută oamenii care au suferit o leziune neurologică traumatică să comunice?

Ceea ce au nevoie pacienții în continuare este un dispozitiv care funcționează lângă pat și funcționează pentru producția de limbaj. În cazul nostru, studiem doar percepția vorbirii. Așa că cred că un posibil următor pas este să încercăm să decodificăm ceea ce oamenii se ocupă în ceea ce privește vorbirea – să încercăm să vedem dacă pot urmări ceea ce diferit oamenii le spun. Dar, mai important, în mod ideal, am avea capacitatea de a decoda ceea ce vor ei să comunice. Acest lucru va fi extrem de provocator, deoarece atunci când cerem unui voluntar sănătos să facă acest lucru, se creează o mulțime de mișcări faciale pe care acești senzori le captează foarte ușor. Pentru a fi siguri că decodificăm activitatea creierului spre deosebire de activitatea musculară va fi foarte dificil. Deci acesta este scopul, dar știm deja că va fi foarte greu.

Cum altfel ar putea fi folosită această cercetare?

Este dificil să judeci asta pentru că avem un singur obiectiv aici. Obiectivul este de a încerca să decodeze ceea ce oamenii au auzit în scaner, având în vedere activitatea creierului lor. În această etapă, colegii și recenzenții se întreabă în principal: „Cum este acest lucru util? Pentru că decodarea a ceva ce știm că oamenii au auzit nu aduce prea multe [the table].” Dar iau asta mai mult ca pe o dovadă a principiului că pot exista reprezentări destul de bogate în aceste semnale – mai mult decât am fi crezut probabil.

Mai există ceva despre care credeți că este important ca oamenii să știe despre acest studiu?

Ceea ce aș dori să subliniez este că aceasta este o cercetare care se realizează în cadrul FAIR și, în acest sens, nu este direcționată de sus în jos de către Meta și nu este concepută pentru produse.

Leave a Comment

Your email address will not be published.