AGI-22 evidențiază progresul în dezvoltarea inteligenței generale artificiale

Am participat recent la 15th conferință anuală despre inteligența generală artificială (AGI-22) care a avut loc la Seattle în august, în încercarea de a mă familiariza cu noile dezvoltări care ar putea duce la eventuala creare a unei Inteligențe Generale Artificiale (AGI).

Un AGI este un tip de IA avansată care se poate generaliza în mai multe domenii și nu are un domeniu de aplicare limitat. Exemplele de AI înguste includ un vehicul autonom, un chatbot, un bot de șah sau orice alt AI care este conceput pentru un singur scop. În comparație, un AGI ar putea alterna în mod flexibil între oricare dintre cele de mai sus sau orice alt domeniu de expertiză. Constă într-un tip speculativ de IA care ar profita de algoritmi în curs de dezvoltare, cum ar fi transfer de învăţareși învățarea evolutivă, exploatând în același timp algoritmi moșteniți, cum ar fi învățare prin întărire profundă.

În timpul sesiunii de deschidere, Ben Goertzel, cercetător în domeniul inteligenței artificiale, CEO și fondator al SingularityNETși liderul Fundația OpenCog a vorbit despre starea industriei. Părea entuziasmat de direcția viitoare a AGI, afirmând că „Suntem la ani distanță mai degrabă decât la zeci de ani”. Acest lucru ar plasa eventuala lansare a unui AGI la aproximativ 2029, în același an în care Ray Kurzweil unul dintre cei mai importanți inventatori, gânditori și futuriști din lume a prezis apariția unei IA care atinge inteligența la nivel uman.

Teoria spune că, odată atins acest tip de inteligență, IA s-ar auto-îmbunătăți imediat și continuu pentru a depăși rapid inteligența umană în ceea ce este cunoscut sub numele de superinteligență.

Un alt vorbitor Charles J. Simonfondatorul și CEO al AI viitor a declarat într-o sesiune separată, „Apariția AGI va fi treptată”, iar „AGI este inevitabil și va ajunge mai devreme decât cred majoritatea oamenilor, ar putea dura câțiva ani”.

Chiar și acest sentiment optimist, există obstacole semnificative în spațiu. Ben Goertzel a recunoscut, de asemenea, că pentru a realiza AGI, „avem nevoie de o infuzie de idei noi, nu doar de extinderea rețelelor neuronale”. Acesta este un sentiment care a fost împărtășit de Gary Marcus, care este cunoscut pentru că a afirmat că „învățarea profundă a lovit un zid”.

Unele dintre provocările de bază ale creării unui AGI includ găsirea unui sistem de recompense care poate scala inteligența într-un mod maxim informat. Paradoxul lui Moravec reflectă problema actuală cu realizarea AGI cu tehnologia noastră actuală. Acest paradox afirmă că adaptările care sunt intuitive pentru un copil de un an, cum ar fi să învețe cum să meargă și să simuleze realitatea, sunt mult mai dificil de programat într-o IA decât ceea ce oamenii le percep ca fiind dificil.

Pentru oameni este opusul polar, stăpânirea șahului sau executarea formulelor matematice complexe poate necesita o viață întreagă pentru a stăpâni, totuși acestea sunt două sarcini relativ ușoare pentru IA înguste.

Una dintre soluțiile la acest paradox poate fi învățarea evolutivă, cunoscută și sub numele de algoritmi evolutivi. Acest lucru permite, în esență, unei IA să caute soluții complexe prin imitarea procesului de evoluție biologică.

Într-un întrebări și răspunsuri separate, Ben Goertzel a declarat că „AGI nu este inevitabil, dar este foarte probabil”. Aceasta este aceeași concluzie la care am ajuns, dar linia dintre inevitabilitate și probabilitate se estompează.

În cadrul conferinței au fost multe lucrări care au fost prezentate, una dintre lucrările notabile care s-a discutat a fost Functori polinomiali: o teorie generală a interacțiunii de David Spivak de la Institutul Topos din Berkeley, CA și Nelson Niu de la Universitatea din Washington, din Seattle, WA. Această lucrare discută o categorie matematică numită Poly care poate influența direcția viitoare a AI atunci când vine vorba de relații intime cu procese dinamice, luare a deciziilor și stocarea și transformarea datelor. Rămâne de văzut cum va influența acest lucru cercetarea AGI, dar ar putea fi una dintre componentele lipsă care ne-ar putea conduce la AGI.

Desigur, au existat și alte lucrări care erau mai speculative, cum ar fi Indicele de versatilitate-eficiență (VEI): către o definiție cuprinzătoare a IQ-ului pentru agenții AGI de Mohammadreza Alidoust. Ideea este de a construi un modalitate alternativă de măsurare a nivelului de inteligență al sistemelor inteligente, un tip de test IQ pentru a măsura agenții AGI într-un mod computațional.

Două companii notabile care pot face progrese în această tehnologie de bază sunt OpenAI și DeepMind, ambele absente în mod semnificativ. S-ar putea să fie de teamă că AGI nu este luată în serios de comunitatea AI, dar ele sunt cele două companii care sunt cele mai probabile să facă prima descoperire în acest domeniu. Acest lucru este valabil mai ales că Misiunea declarată a OpenAI este de a efectua cercetări fundamentale, pe termen lung, în vederea creării unui AGI sigur.

Deși nu au existat descoperiri revoluționare majore de dezvăluit la conferință, este clar că AGI îi preocupă pe mulți cercetători și este ceva căruia comunitatea AI ar trebui să îi acorde mai multă atenție. La urma urmei, an AGI ar putea fi soluția pentru a rezolva multiplele amenințări existențiale ale umanității.

Leave a Comment

Your email address will not be published.