10 Minute
De la apariția ChatGPT la sfârșitul anului 2022, milioane de persoane au început să folosească modele lingvistice mari (LLM) pentru a răspunde la întrebări, a sintetiza informații și a accelera sarcini care anterior necesitau căutări consumatoare de timp. Un set nou de experimente indică însă că această comoditate poate avea un cost: persoanele care se bazează pe rezumatele generate de LLM tind să dezvolte cunoștințe mai puțin profunde decât cele care cercetează prin căutări web tradiționale.
Cum au fost realizate experimentele și ce au descoperit
Cercetătorii Shiri Melumad și Jin Ho Yun, ambii profesori de marketing, au condus șapte studii controlate cu peste 10.000 de participanți pentru a testa modul în care se diferențiază învățarea atunci când oamenii folosesc un model lingvistic mare precum ChatGPT față de o căutare Google standard. Subiecții au fost invitați să învețe despre teme cotidiene – de exemplu cum să cultivi un mic solariu sau o grădină de legume, cum să pregătești o rețetă sănătoasă, sau elemente practice de întreținere a locuinței – și au fost repartizați aleatoriu să folosească fie un LLM, fie să navigheze linkuri web „în mod clasic”. Nu au existat limite privind durata căutării sau numărul de prompturi adresate modelului.
După faza de documentare, participanții au redactat un sfat către un prieten bazat pe ceea ce au învățat. În toate studiile a apărut un tipar clar: cei care au folosit rezumatele LLM au raportat că au învățat mai puțin, au investit mai puțin efort în redactarea sfatului și au produs texte mai scurte, mai generice și mai puțin factuale în comparație cu participanții care au parcurs singuri pagini web și surse primare.
Când cititorii independenți — care nu știau ce instrument a fost folosit de autorul sfatului — au evaluat textele, au clasat în mod constant recomandările provenite din LLM ca fiind mai puțin informative și mai puțin utile, iar intenția de a urma acele recomandări era mai scăzută. Aceste rezultate s-au menținut robuste across (pe multiple) subiecte și eșantioane populaționale, sugerând un efect generalizat, nu limitat la o temă sau demografie particulară.

Folosirea Google „pe vechea metodă” implică citirea mai largă a surselor.
De ce răspunsurile sintetizate pot slăbi învățarea profundă
În centrul acestor rezultate se află un principiu bine documentat în știința învățării: implicarea activă generează cunoștințe mai solide și transferabile. Căutările web tradiționale forțează cursantul să parcurgă surse diverse, să evalueze credibilitatea, să interpreteze puncte de vedere diferite și să sintetizeze aceste elemente într-o reprezentare mentală proprie. Acest proces de lucru solicitant creează ceea ce psihologii numesc „dificultăți dezirabile” — o fricțiune productivă care susține memorarea pe termen lung și capacitatea de aplicare flexibilă a cunoștințelor.
Modelele lingvistice mari, în schimb, comprimă numeroase surse într-un rezumat lustruit, făcând pentru utilizator interpretarea și sinteza. Interacțiunea devine mai pasivă: pui o întrebare, primești un răspuns coerent, treci mai departe. Conveniența este indiscutabilă, dar compromisul pare a fi o codificare mai puțin profundă a faptelor și un număr mai mic de conexiuni mentale care susțin utilizarea flexibilă a informațiilor pe viitor. Astfel, procesul cognitiv necesar pentru a transforma informația factuală în cunoștințe aplicabile e diminuat.
Echipa de cercetare a testat și explicații alternative. Una dintre ipoteze a fost că LLM-urile expun utilizatorii la un set mai restrâns de fapte sau perspective (un „efect de filtrare”), ceea ce ar conduce la output mai puțin eclectic. Ca metodă de control, în unele experimente s-au prezentat conținuturi factuale identice atât grupului care a folosit LLM, cât și celui care a făcut căutări web. Alte studii au menținut aceeași platformă — comparând rezultatele standard de căutare Google cu o funcție AI Overview — și tot s-a observat că rezumatele sintetizate au condus la înțelegeri mai superficiale comparativ cu compilarea activă din linkuri web.
Pe lângă aceste teste de control, cercetătorii au analizat și comportamentul explorator: cât timp petreceau utilizatorii pe sursele originale după ce primeau un rezumat, dacă foloseau linkurile incluse în răspuns, sau dacă verificau referințele. Datele comportamentale au arătat că, odată ce oamenii primesc o sinteză convingătoare, tendința este să nu mai aprofundeze, reducând astfel expunerea la diversitatea de surse care contribuie la învățarea profundă.

Doriți o înțelegere mai aprofundată? LLM-urile s-ar putea să nu fie abordarea potrivită.
Implicații practice pentru cursanți, educatori și profesioniști
Aceste rezultate nu sugerează că LLM-urile ar trebui interzise. Modelele lingvistice mari sunt unelte puternice de productivitate: explicațiile rapide, asistența pentru programare, redactarea inițială de texte și brainstormingul sunt utilizări evidente și valoroase. Mesajul-cheie este unul de nuanță — cursanții și profesioniștii ar trebui să fie strategici în alegerea momentelor în care se bazează pe un copilot AI și când adoptă o cercetare mai solicitantă.
Pentru căutări factuale de rutină sau când viteza e esențială, un LLM oferă un prim pas util. Cu toate acestea, când obiectivul este dezvoltarea unui know-how profund și generalizabil — a stăpâni o disciplină suficient de bine încât să o predai, să argumentezi sau să o aplici în situații inedite — încrederea exclusivă în răspunsuri sintetizate poate submina acest scop. În practică, asta înseamnă că profesorii, managerii și specialiștii în formare profesională ar trebui să construiască trasee de învățare care alternează între eficiență și efort cognitiv.
De exemplu, la nivel instituțional, cursurile pot folosi LLM-urile pentru a oferi o introducere rapidă sau un rezumat orientativ, urmat de exerciții structurate de verificare a surselor, practică de recuperare a informației (retrieval practice) și proiecte aplicate care solicită producerea de conținut original. La nivel profesional, echipele pot folosi un LLM pentru schițarea unei agende sau a unui plan, dar ar trebui impuse etape în care membrii să parcurgă literatura primară, să compare alternative și să prezinte raționamentul lor critic.
Cercetătorii au testat, de asemenea, dacă combinarea abordărilor ar putea atenua efectele negative. Într-un experiment, participanții au interacționat cu un GPT specializat care oferea linkuri web în timp real alături de sumarul generat. Chiar și cu linkurile disponibile, odată ce utilizatorii primeau sinteza finisată, tendința de a explora sursele originale scădea semnificativ, iar cunoașterea rămânea mai puțin adâncă decât în cazul celor care navigaseră linkurile de la bun început. Acest comportament sugerează că simpla disponibilitate a surselor nu este suficientă: modul în care informația este prezentată influențează puternic decizia cognitivă de a cerceta mai departe.
Expert Insight
Dr. Elena Morales, cercetătoare în domeniul științelor cognitive specializată în învățare și tehnologie, observă: „Rezumatul automat economisește timp, dar poate scurcircuita munca mentală necesară pentru învățarea durabilă. Provocarea pentru educatori și dezvoltatorii de instrumente este să proiecteze fricțiuni sănătoase — prompturi structurate, exerciții de recuperare sau cerințe de implicare cu sursele primare — care să împingă utilizatorii să gândească activ în loc să accepte pasiv un răspuns.”
Morales adaugă că nu toate fricțiunile sunt la fel: cele care solicită explicarea în propriile cuvinte, justificarea unei alegeri sau aplicarea imediată a informației conduc la formarea unor conexiuni semnificative între date factuale și schelete cognitive utilizabile. În opinia ei, combinația dintre feedback imediat (posibil cu ajutorul AI), sarcini de transfer și evaluări de proces poate transforma un instrument eficient în unul care sprijină și învățarea profundă.
Ce ar putea îmbunătăți învățarea asistată de LLM?
Melumad și Yun propun un program de cercetare axat pe intervenții de design care să păstreze eficiența inteligenței generative, dar să reintroducă fricțiuni productive. Abordările posibile includ unelte care solicită cursanților să explice răspunsurile în propriile cuvinte înainte de a primi rezumatul, să încerce o recuperare inițială a informației (retrieval attempt) sau să marcheze clar linkurile diverse și să formuleze întrebări de urmărire care încurajează verificarea și explorarea mai profundă.
Aceste „garduri” ar putea fi deosebit de importante în învățământul secundar și universitar, unde dezvoltarea abilităților fundamentale de citire critică, scriere și raționament rămâne esențială. Profesorii ar putea combina outputul LLM cu teme care obligă elevii să citeze surse originale, să apere afirmații într-o dezbatere sau să extindă sintezele în proiecte aplicate — de pildă, transformând un rezumat într-un plan de acțiune sau într-un mini-studiu de caz.
Dintr-o perspectivă tehnologică, dezvoltatorii de aplicații AI ar putea integra mecanisme care detectează când utilizatorul primește un răspuns complet și apoi oferă pași activi: butoane pentru „vezi sursele”, mini-chestionare de verificare, sau cerințe de reformulare. Astfel de funcționalități nu trebuie să anuleze viteza sau utilitatea LLM, ci să reintroducă oportunități de lucru cognitiv care susțin învățarea pe termen lung. Cercetările viitoare pot testa eficiența acestor intervenții prin experimente cu măsurători comportamentale (de exemplu, timp petrecut pe surse, click-uri pe linkuri) și măsuri ale retenției și transferului de cunoștințe.
În mediul corporativ, politici simple pot promova bună practică: etichetarea clară a outputului AI, cerința de verificare prin surse primare pentru decizii critice și instruirea angajaților în gândirea critică și evaluarea surselor online. Astfel, companiile pot valorifica avantajele productivității oferite de LLM fără a sacrifica calitatea deciziilor sau formarea profesională de lungă durată.
Concluzie
Apariția ChatGPT și a altor LLM-uri marchează o schimbare profundă în modul în care oamenii accesează informația și își formează cunoștințe. Dovezile experimentale indică că această comoditate poate veni în detrimentul adâncimii învățării. În loc să renunțăm la aceste instrumente, prioritatea ar trebui să fie utilizarea mai inteligentă: potrivește instrumentul cu sarcina, proiectează experiențe de învățare care restabilesc procesarea activă necesară pentru înțelegerea profundă și implementează intervenții de design care încurajează verificarea, reformularea și aplicarea practică a informației.
Adoptarea unei strategii hibride — care combină viteza rezumatelor automate cu pași obligatorii de verificare și aplicare — poate oferi un echilibru între eficiență și robustețea cunoașterii. Astfel de practici vor fi esențiale pentru formarea viitoarelor generații, pentru consolidarea competențelor profesionale și pentru asigurarea că tehnologiile AI servesc extinderii capacității cognitive, nu înlocuirii sale.
Sursa: sciencealert
Lasă un Comentariu