5 Minute
Inteligența artificială inspirată de creier oferă o nouă abordare pentru raționamentul mașinilor
Cercetătorii de la Sapient din Singapore au introdus o arhitectură de inteligență artificială inspirată de creier, numită modelul de raționament ierarhic (HRM). Spre deosebire de modelele lingvistice mari (LLM) convenționale care se bazează pe prompting de tip lanț de gândire (chain-of-thought, CoT) și pe un număr masiv de parametri, HRM emulează procesarea informațiilor pe straturi ierarhice și pe multiple scale temporale observate în creierul uman. Conform unui preprint publicat pe 26 iunie pe arXiv, HRM obține performanțe puternice pe benchmark-uri dificil de raționament, utilizând mult mai puțini parametri și exemple de antrenament. Studiul raportează HRM rulând cu aproximativ 27 de milioane de parametri antrenați pe în jur de 1.000 de exemple, un contrast dramatic cu LLM-urile moderne care adesea au miliarde sau chiar trilioane de parametri.
Echipa de cercetare a testat HRM pe benchmark-ul ARC-AGI, un set provocator proiectat pentru a evalua progresul către inteligența artificială generală (AGI). HRM a obținut 40,3% la ARC-AGI-1 și 5% la ARC-AGI-2 — rezultate care au depășit mai multe modele contemporane incluse în comparație, precum o3-mini-high de la OpenAI, Claude 3.7 de la Anthropic și Deepseek R1. Aceste cifre sugerează că arhitectura și strategia de antrenament pot influența substanțial capacitatea de raționament fără a escalada dimensiunea modelului sau mărimea setului de date.
Cum funcționează HRM: module ierarhice și rafinare iterativă
HRM înlocuiește decompozitia explicită de tip lanț de gândire cu o trecere înainte în două module care oglindește procesarea ierarhică din sistemele neuronale. Un modul de nivel înalt realizează planificare abstractă, mai lentă, pe intervale temporale mai lungi, în timp ce un modul de nivel scăzut execută calcule rapide și detaliate. În loc să genereze pași intermediari expliciți în limbaj natural, HRM aplică rafinare iterativă în rafale scurte de calcul. Fiecare rafală evaluează dacă se continuă rafinarea sau se emite un răspuns final. Această tehnică — rafinarea iterativă — este o strategie numerică bine cunoscută care îmbunătățește acuratețea soluțiilor prin actualizarea repetată a unei aproximații.
Contrast cu lanțul de gândire
Majoritatea LLM-urilor avansate folosesc CoT pentru a descompune probleme complexe în subpași ușor de citit de oameni. CoT poate fi eficient, dar are limitări documentate: decompoziție fragilă a sarcinilor, cerințe substanțiale de date și latență crescută din cauza generării în mai mulți pași. Designul HRM urmărește să evite aceste probleme prin integrarea controlului ierarhic și a rafinării direct în calculul forward, reducând nevoia de etichete intermediare supravegheate extinse.
Performanța pe benchmark-uri, reproducere și avertismente
HRM a demonstrat performanțe puternice la sarcini ce solicită raționament structurat, inclusiv rezultate aproape perfecte la probleme complexe de Sudoku și îmbunătățiri la găsirea căilor în labirint comparativ cu LLM-urile tipice. Autorii au pus la dispoziție implementarea pe GitHub, permițând verificarea independentă. După reproducerea scorurilor trimise, organizatorii ARC-AGI au raportat constatări suplimentare: unele dintre câștigurile HRM par a fi determinate nu în principal de arhitectura ierarhică în sine, ci de un proces de rafinare aplicat în timpul antrenamentului care a fost documentat insuficient în raportul inițial. Este important de menționat că lucrarea de pe arXiv nu a fost încă supusă peer-review, astfel comunitatea mai largă ar trebui să trateze rezultatele ca provizorii până când studiile ulterioare și auditul codului clarifică care factori sunt critici pentru performanță.
Contrastul dintre dimensiunea compactă a modelului HRM și scara enormă a lansărilor recente de LLM evidențiază un temă de cercetare în curs: îmbunătățirile algoritmice și arhitecturale pot uneori înlocui creșterea brută a parametrilor. Aceasta are implicații pentru eficiența calculului, consumul de energie și accesibilitatea capacităților avansate de AI pentru cercetători și instituții fără bugete mari de infrastructură.
Expert Insight
"HRM este o demonstrație interesantă că un design structurat, inspirat de creier, poate genera raționament competitiv fără scară extremă," spune Dr. Lina Moreno, neurocercetător în calcul (ficțional). "Întrebările cheie acum sunt reproducibilitatea și generalizarea: poate antrenamentul și rafinarea în stil HRM să se transfere la un spectru mai larg de sarcini și seturi de date? Dacă da, am putea observa o mișcare către sisteme de raționament mai eficiente și interpretabile."
Concluzie
HRM oferă o alternativă promițătoare, inspirată de creier, la raționamentul bazat pe lanțuri de gândire în modelele lingvistice mari. Rezultatele timpurii pe benchmark-ul ARC-AGI arată un raționament îmbunătățit cu mult mai puțini parametri și exemple de antrenament, dar constatările rămân provizorii în așteptarea peer-review-ului și a analizelor independente. Faptul că succesul se datorează designului ierarhic al HRM sau pașilor de rafinare documentați insuficient va determina modul în care comunitatea adoptă și extinde această abordare. Pentru moment, HRM subliniază că arhitecturi și tehnici de antrenament mai inteligente pot completa — și uneori reduce — nevoia de modele tot mai mari în avansarea capacităților de raționament ale AI-ului.
Sursa: livescience
Comentarii