În era în care roboţii lasă tot mai mulţi oameni fără un loc de muncă, mai sunt încă lucruri destul de simple pe care aceştia nu reuşesc să le facă, dar pe care AI se apropie de a le rezolva
Apucarea unei doze de bere sau întinderea dulceţii pe clătită sunt sarcini banale pentru oameni, dar care pentru roboţi au fost până acum extrem de dificile. Maşinile se chinuie cu complexităţile lumii fizice – iar sarcinile pentru care este nevoie de dexteritate sunt greu de rezolvat. Însă inteligenţa artificială transformă modul în care roboţii învaţă să se mişte şi să navigheze în diferite medii. Aceştia dobândesc abilităţi mai repede decât oricând şi se adaptează în moduri considerate anterior imposibile. Braţele robotice umanoide pot acum să bată ouăle şi să lege şireturile pantofilor. Roboţii pot face pizza fără ca acest lucru să fie scris în vreun cod sau fără să primească instrucţiuni noi, scrie Financial Times.
Unii cercetători cred că aceste progrese ar putea avea un efect la fel de profund asupra roboticii pe cât l-au avut asupra cuvintelor modelele de limbaj ca ChatGPT. Saltul gigantic în faţă în generarea de text şi imagini începe acum să se vadă şi în privinţa acţiunii. „Nu este Science Fiction”, a declarat în iunie Jensen Huang, şeful gigantului de cipuri Nvidia, referindu-se la utilizarea IA pentru a instrui roboţii să îndeplinească sarcini în lumea reală.
„Următorul val de IA este IA fizică. Inteligenţă artificială care înţelege legile fizicii, care poate lucra printre noi.”
În multe privinţe, această revoluţie a roboticii este de mult aşteptată. Timp de zeci de ani, oamenii şi-au imaginat traiul alături de roboţi casnici umanoizi capabili să facă munci banale. Dar, după ani de progres lent, cercetătorii par să fi ajuns în faţa progreselor dramatice necesare pentru a crea o nouă generaţie de automate. Inteligenţa artificială a alimentat o serie de descoperiri recente în cercetare care au adus mai aproape sarcini complexe care au separat anterior oamenii de roboţi.
În timp ce ajutorul automat multifuncţional capabil să facă tot ce poate un om, doar mai bine, este încă departe, faptul că un robot poate pune un tricou pe un umeraş este un semn că acest lucru va fi posibil. Astfel de evoluţii ar putea fi foarte importante în domenii precum îngrijirea la domiciliu, sănătatea şi producţia manufacturieră – iar investitorii sunt atenţi.
Entuziasmul din jurul progreselor recente atrage un interes tot mai mare şi sume mari de la o mulţime de cercetători, companii tehnologice mari şi investitori, chiar dacă saltul cuantic în finanţare nu a sosit deloc. Tranzacţii cu capital de risc pentru robotică şi drone de peste 11 miliarde de dolari au fost încheiate până la sfârşitul lunii octombrie, depăşind cele 9,72 miliarde de dolari de anul trecut, dar neatingând recordul de 13,23 miliarde de dolari din 2022, potrivit PitchBook.
„Porţile s-au deschis cu adevărat”, spune Russ Tedrake, profesor la Institutul de Tehnologie din Massachusetts şi vicepreşedintele de cercetare în robotică la Institutul de Cercetare Toyota, reflectând asupra interesului pentru evoluţiile rapide din domeniu. „Giganţii de tehnologie se lansează, start-up-urile încep să răsară... toată lumea este optimistă că va veni.” Roboţii inspiră de mult timp atât entuziasm, cât şi frică. SF-ul s-a înfruptat timp de un secol din ideea de maşini ca slujitori loiali sau stăpâni tiranici.
Roboţii joacă roluri contrastante în cultura populară, de la eroismul salvator al lui C3PO şi R2D2 din franciza Războiul stelelor până la asasinul necruţător T-1000 din Terminator 2. Mai recent, în lungmetrajul nominalizat la Oscar Robot Dreams, un automat venit prin curier devine prietenul care îi schimbă viaţa unui newyorkez singuratic, în timp ce ROZZUM unit 7134 din The Wild Robot salvează viaţa unui gâscan mic şi pufos în timp ce dezvoltă cel mai important dintre sentimentele umane - dragostea.
Cu toate acestea, în lumea reală, a face roboţii să îndeplinească chiar şi sarcini banale s-a dovedit dificil. Interacţiunea cu oamenii rămâne deosebit de dificilă, având în vedere că roboţii trebuie să navigheze în spaţiile noastre dinamice şi să înţeleagă modurile subtile în care oamenii îşi comunică intenţiile. Faptul că roboţii umanoizi Optimus ai lui Elon Musk – care au fost văzuţi servind băuturi la un eveniment Tesla – au fost de fapt operaţi de la distanţă de oameni este un exemplu concret.
Limitările de hardware şi, mai ales, ale software-ului au restrâns abilităţile roboţilor, chiar dacă au transformat unele procese industriale, cum ar fi automatizarea depozitelor. Generaţiile anterioare de maşini a trebuit să fie programate folosind cod complicat sau au fost învăţate lent prin încercări şi erori, tehnici care au dus la abilităţi limitate în sarcini strict definite efectuate în medii extrem de controlate.
Dar datorită progreselor în IA, ultimii doi ani au fost diferiţi, chiar şi pentru cei care lucrează în domeniu de ceva timp. „Există emoţie în aer şi cu toţii credem că se avansează într-un ritm mult mai rapid decât am crezut”, spune Carolina Parada, şeful echipei de robotică de la Google DeepMind. Unele dintre cele mai mari salturi în domeniu au fost în software, în special în modul în care sunt antrenaţi roboţii.
Metodele de clonare a comportamentului bazate pe inteligenţă artificială – în care o sarcină este demonstrată unui robot de mai multe ori de către un om – au produs rezultate remarcabile. Cercetătorii de la Institutul de Cercetare Toyota pot învăţa acum creierele braţelor robotice cum să execute mişcări complexe în câteva ore şi nu în câteva săptămâni. Cheia acestui proces de învăţare este „difuzia”. Binecunoscută în lumea generării de imagini IA, tehnica a fost dezvoltată mai departe de creatorii de roboţi. În loc să folosească difuzia pentru a genera imagini, roboticienii au început să o folosească pentru a produce acţiuni. Aceasta înseamnă că roboţii pot învăţa o nouă sarcină - cum ar fi cum să folosească un ciocan sau să învârtească un şurub - şi apoi să o aplice în diferite setupuri.
Când este utilizat pentru sarcini de pregătire a roboţilor, zgomotul (noise, în limbaj fotografic) este aplicat unui set de date de antrenament sub formă de traiectorii aleatorii, într-un mod similar cu pixelii (zgomotul) adăugaţi imaginilor. Modelul de difuzie îndepărtează apoi fiecare dintre aceste traiectorii aleatoare până când obţine o cale clară care poate fi urmată de robot. Cercetătorii de la Universitatea Stanford şi de la Google DeepMind au avut succes cu tehnicile de difuzie. „Am ales trei dintre sarcinile care cer cea mai multă îndemânare la care ne-am putut gândi... şi am încercat să vedem dacă am putea antrena o politică (sistemul robot IA) pentru a face fiecare sarcină”, a explicat Chelsea Finn, profesor asistent la Stanford. „Toate au funcţionat!” Echipa a învăţat o versiune anterioară a robotului să gătească în mod autonom creveţi, să cureţe pete şi să cheme un lift.
R
Progresul extraordinar în generarea de text şi imagini folosind IA din ultimii doi ani a fost posibil datorită inventării modelelor de limbaj mari (LLM), mecanismul care stă la baza chatboţilor. Roboticienii se bazează acum pe acestea şi pe verişoarele lor, modele de limbaj condiţionate vizual, uneori numite modele vedere-limbaj, care conectează informaţiile textuale şi imaginile.
Având acces la uriaşe arhive de date de text şi imagini, cercetătorii îşi pot „preantrena” modelele de roboţi cu privire la nuanţele lumii fizice şi modul în care oamenii o descriu, chiar înainte de a începe să-i înveţe pe studenţii-maşini acţiuni specifice. Dar, în lumea reală haotică şi în continuă schimbare, maşinile nu trebuie doar să fie capabile să execute sarcini individuale, ci şi să realizeze o multitudine de sarcini în medii diferite.
Cei aflaţi în inima roboticii cred că răspunsul la această generalizare se găseşte în modelele fundamentale pentru lumea fizică, care se vor clădi pe baze de date în creştere legate de mişcare - bănci de informaţii care înregistrează acţiunile robotului. Speranţa este că aceste modele mari de comportament, odată ajunse suficient de mari, vor ajuta maşinile să se adapteze la medii noi şi imprevizibile, cum ar fi mediile comerciale şi casnice, transformând rapid afacerile şi viaţa de zi cu zi ale oamenilor.
Dar aceste modele se confruntă cu numeroase provocări dincolo de ceea ce este necesar pentru IA generativă lingvistică. Ele trebuie să conducă acţiuni care respectă legile fizicii într-o lume tridimensională şi se adaptează la mediile dinamice ocupate de alte vieţuitoare. Provocarea actuală pentru dezvoltarea acestor modele mari de comportament este deficitul de date - o dificultate cu care se confruntă şi modelele mari de limbaj, ca urmare a epuizării surselor de informaţii umane. Dar un mare efort comun este în desfăşurare în comunitatea robotică pentru a genera noi seturi de date pentru antrenament. „Am văzut că sunt disponibile tot mai multe informaţii, inclusiv pentru sarcini care cer foarte multă îndemânare – şi am văzut deja o mulţime de roade”, spune Finn de la Stanford. „Aceasta ne spune că, dacă suntem capabili să extindem lucrurile în continuare, atunci am putea face progrese semnificative în a permite roboţilor să aibă succes în setupurile din lumea reală.”
Unele dintre cele mai recente cercetări au descoperit că aceste date de acţiune nu trebuie să provină de la acelaşi tip de robot sau nici chiar să reprezinte abilităţile exacte pe care un robot încearcă să le înveţe pentru a avea succes. Pot fi de la diferite maşini care execută o gamă largă de sarcini în diferite medii. În esenţă, roboţii par a fi capabili să-i înveţe pe alţi roboţi chiar dacă nu seamănă cu ei. Tedrake de la Institutul de Cercetare Toyota spune că proliferarea recentă a hardware-ului roboţilor, de la automate prinse de podelele fabricilor până la dispozitive casnice, cum ar fi aspiratoarele Roomba, ar trebui să ajute la completarea acestei lacune de date. Cu cât există mai mulţi roboţi, cu atât vor fi disponibile mai multe date vizuale despre acţiunile lor de finalizare.
Parteneriatul de cercetare recent anunţat al Toyota cu unul dintre liderii mondiali în hardware, Boston Dynamics, îşi propune să ducă acest lucru un pas mai departe - dezvoltarea modelelor de comportament pentru întregul corp pentru unii dintre cei mai avansaţi roboţi umanoizi din lume. Unul dintre aceştia este robotul umanoid hidraulic Atlas, celebru pe reţelele sociale pentru mişcările sale de parkour şi dans, care ilustrează modul în care Boston Dynamics a dezvoltat hardware-ul robotic în ultimele trei decenii.
Povestea robotului Spot, asemănător unui câine, este un indiciu al progresului înregistrat şi al provocărilor care rămân. Spot are „inteligenţă atletică”, spun creatorii săi, şi cu peste 1.500 de fraţi patrupezi care lucrează acum pentru întreprinderi şi alte organizaţii, acesta joacă deja un rol cheie în procesele industriale. De asemenea, câinii mecanici au fost văzuţi patrulând prin staţiunea Mar-a-Lago a preşedintelui ales Donald Trump din Palm Beach, Florida.
Potriviţi muncilor repetitive, dificile sau posibil periculoase pentru oameni, câinii robot pot fi aduşi pentru a ajuta la operaţiunile de căutare şi salvare în caz de dezastre, de dezafectare nucleară şi de eliminare a bombelor - dar utilizarea lor principală este în inspecţiile industriale. Gigantul farmaceutic GSK foloseşte o unitate personalizată pentru a verifica rezervoarele de agent propulsor folosit în inhalatoarele Ventolin ale companiei, de exemplu.
A
Abilităţile IA ale lui Spot îi permit, de asemenea, să înveţe rapid. Când versiunea producătorului de bere AB InBev a automatului canin a întâlnit podele alunecoase în timp ce căuta scurgeri de aer în liniile de îmbuteliere, creatorii săi de la Boston Dynamics au folosit simulări de învăţare automată pentru a-l pregăti să facă faţă unor astfel de situaţii. Ce au obţinut s-a dovedit atât de eficient încât a fost instalat pe toţi Spoţii din întreaga lume. „Deci, aşa cum iPhone-ul tău primeşte o nouă actualizare de software, şi robotul tău primeşte”, spune Nikolas Noel, vicepreşedinte de marketing şi comunicare la Boston Dynamics, deţinut acum de producătorul de automobile sud-coreean Hyundai Motor Group.
Cu toate acestea, pentru mulţi din domeniul roboticii scopul rămâne crearea unei maşini industriale multicalificate complet adaptabile, capabilă de sarcini de la brodat la asamblarea pentru producţia de loturi mici - o realizare care ar revoluţiona industria prelucrătoare. IA a adus această ambiţie mai aproape de realitate, spune Nick Hawes, profesor de inteligenţă artificială şi robotică la Universitatea Oxford.
„Întreaga revoluţie a învăţării profunde în IA a deblocat capacitatea de a generaliza într-o gamă foarte largă de inputuri, prin utilizarea acestor reţele neuronale foarte mari şi a unei cantităţi uriaşe de date şi capacităţi de calcul”, spune Hawes. „Dar nu cred că am văzut un rezultat final cu aplicabilitate generală... Poate mai încolo.”
Boston Dynamics şi-a luat rămas bun la începutul acestui an de la Atlas. Un montaj video a arătat că robotul putea să facă salturi pe spate şi sărituri lungi, dar şi cădea de pe o platformă şi se rostogolea necontrolat pe o pantă înierbată. Metafora roboticii ca promisiuni şi eşecuri sub atenţia intensă a publicului este greu de ignorat. Inginerii au introdus acum un succesor electrificat, Electric Atlas, cu articulaţii agile şi abilităţi îmbunătăţite de inteligenţa artificială, crescând perspectiva creării de roboţi însoţitori care să îşi asume tipurile de sarcini pe care le fac oamenii acum. „Cred că toţi avem vise ca robotul Rosey (referire la femeia de serviciu android din The Jetsons) să poată duce gunoiul, să ne spele vasele şi să ne pună masa”, spune Noel. „Vor fi realizări viitoare. Vor arăta total diferit după toate probabilităţile. Dar da, aceasta este ambiţia pe termen lung.” Succesul cu umeraşul de haine este un semn al acestor posibilităţi, spune Carolina Parada de la Google DeepMind. Dacă aceste abilităţi pot fi generalizate pentru a permite robotului să lucreze cu diferite piese de îmbrăcăminte şi în noi setupuri, „ai putea începe să-ţi imaginezi cum aceste părţi se unesc”, spune ea. „Şi atunci ai avea un robot care chiar ţi-ar putea spăla rufele, nu?”
DeepMind a învăţat un câine robot să deschidă uşile cu laba, în loc să-şi forţeze intrarea. Odată învăţată, abilitatea a devenit parte din modelul de bază şi robotul nu a mai trebuit să fie dresat din nou - nu este ceva prea diferit de dresarea unui animal de companie adevărat.
Modul în care roboţii învaţă să trăiască alături de oameni rămâne o problemă mai grea. Parada dă exemplul unei maşini care ar trebui să pună la locul lor lucruri într-o casă plină de oameni. Robotul ar trebui să înţeleagă semnalele de la ocupanţii umani, cum ar fi când şi în ce fel se vor mişca. Oamenii emit adesea indicii despre astfel de intenţii în mod non-verbal în moduri care ar putea fi greu de detectat pentru un automat. „Ca robot va trebui să fii capabil să interacţionezi cu oamenii în mod proactiv, nu doar pasiv şi, de asemenea, să poţi citi ce e prin cameră – ceea ce este extrem de greu de făcut pentru un robot”, explică Parada. În ciuda acestor provocări, saltul conceptual către o lume în care superroboţii casnici joacă un rol real în viaţa oamenilor pare mai mic decât a fost cândva, a adăugat ea. „Mulţi oameni, când am început să lucrez în robotică, au spus că nu voi vedea în această viaţă un robot de casă care să-mi spele rufele şi să cureţe prin gospodărie. Aş spune că majoritatea oamenilor gândesc acum: <<Oh, da, cred că putem avea asta înainte să mă pensionez>>”.
Pe termen mai lung, chiar şi ideile mai avansate percutează. Un exemplu sunt reţelele neuronale „lichide”, care acţionează mai degrabă precum creierul biologic decât ca reţelele neuronale tradiţionale şi folosesc conexiuni dinamice pentru a se adapta continuu şi a învăţa din date noi.
O astfel de abordare necesită mai puţini neuroni sau purtători de semnal şi, prin urmare, mai puţină capacitate de calcul. Acest lucru ar trebui să facă hardware-ul mai compact şi, prin urmare, mai puţin greoi de transportat de către roboţi.
„Cum putem aduce aceste două lumi împreună?” întreabă Daniela Rus, liderul cercetăriilor despre reţele neuronale la MIT. „Şi plecăm de la ideea că putem folosi reţele lichide – care este un nou model pentru IA.” Aceste reţele lichide dau deja rezultate impresionante în sfera de cercetare a vehiculelor autonome.
În mod tradiţional, astfel de vehicule se chinuie în perioadele de tranziţie ale zilei, când condiţiile se schimbă, cum ar fi în zori şi în amurg. În timp ce modelele IA convenţionale acordă multă atenţie caracteristicilor de pe marginile unui drum, cum ar fi vegetaţia, pentru a instrui vehiculul să circule între ele reţelele neuronale lichide se concentrează mai mult pe mijlocul autostrăzii şi pe posibilele obstacole.
Cercetările arată că reţelele lichide sunt mai capabile să distingă între aspectele cruciale şi irelevante ale sarcinii de conducere şi sunt mult mai aproape de modul în care conduc oamenii. Acest lucru are avantajul de a face modelul, teoretic, mai uşor de înţeles şi de calibrat.
Rus spune că începem să vedem în robotică realizări care înainte păreau imposibile. Dar rămân provocările asigurării unei plase de protecţie, spune ea. La urma urmei, a existat un motiv pentru care primele două legi ale roboticii stabilite de Isaac Asimov, autorul poveştii Eu, Robotul, s-au concentrat pe prevenirea vătămării oamenilor şi pe respectarea de către roboţi a ordinelor date de oameni.
„Toate aceste lucruri grozave la care doar visam acum putem începe să le realizăm”, concluzionează Rus. „Acum trebuie să ne asigurăm că ceea ce facem cu toate aceste superputeri este în numele binelui.”
Traducere şi adaptare: Bogdan Cojocaru
Urmărește Business Magazin
Citeşte pe zf.ro
Citeşte pe Alephnews
Citeşte pe smartradio.ro
Citeşte pe comedymall.ro
Citeşte pe prosport.ro
Citeşte pe Gandul.ro
Citeşte pe MediaFLUX.ro
Citeşte pe MonitorulApararii.ro
Citeşte pe MonitorulJustitiei.ro
Citeşte pe zf.ro