Profesorul Geoffrey Hinton, laureat al premiului Nobel pentru fizică datorită contribuțiilor sale în domeniul inteligenței artificiale, avertizează că riscul ca tehnologia să ducă la dispariția omenirii în următoarele trei decenii a crescut alarmant, de la 10% la 20%. Renumit ca „nașul inteligenței artificiale,” Hinton subliniază că ritmul de dezvoltare al acestei tehnologii este „mult mai rapid” decât se anticipa, relatează The Guardian.
Invitat în emisiunea Today de la BBC Radio 4, Hinton a atras atenția asupra posibilității ca sistemele AI extrem de avansate să devină mai inteligente decât oamenii, generând riscuri existențiale. „Nu am mai avut niciodată de-a face cu lucruri mai inteligente decât noi. Și câte exemple cunoașteți ca un lucru mai inteligent să fie controlat de unul mai puțin inteligent?” a întrebat profesorul, comparând relația dintre oameni și AI cu cea dintre un adult și un copil de trei ani.
Hinton a devenit o voce proeminentă în dezbaterea privind siguranța AI după ce, anul trecut, a demisionat din postul său de la Google pentru a avertiza asupra pericolelor dezvoltării necontrolate a tehnologiei. El a evidențiat riscul ca „actorii răi” să folosească AI pentru scopuri dăunătoare, subliniind necesitatea urgentă de reglementare guvernamentală.
„Lăsarea acestei tehnologii în mâinile corporațiilor, conduse exclusiv de motive de profit, nu este suficientă pentru a garanta siguranța. Guvernele trebuie să intervină,” a declarat Hinton.
În timp ce colegul său Yann LeCun, cercetător șef în domeniul AI la Meta, minimalizează riscurile, afirmând că AI „ar putea salva omenirea de la extincție,” Hinton rămâne ferm în apelul său pentru precauție. „Majoritatea experților sunt de acord că, în următorii 20 de ani, vom dezvolta inteligență artificială care va depăși inteligența umană. Este un gând extrem de înfricoșător,” a concluzionat el.
Astfel, avertismentul profesorului Hinton deschide o dezbatere globală despre cum trebuie gestionată dezvoltarea inteligenței artificiale pentru a preveni scenarii apocaliptice.