Sfânta Biserica Ortodoxă

miercuri, 22 mai 2024

Echipa de risc AI pe termen lung a OpenAI a fost desființată - Întreaga echipă OpenAI axată pe pericolele existențiale ale IA fie a demisionat, fie a fost absorbită de alte grupuri de cercetare, a confirmat WIRED.

 

"Echipa de risc AI pe termen lung a OpenAI a fost desființată - Întreaga echipă OpenAI axată pe pericolele existențiale ale IA fie a demisionat, fie a fost absorbită de alte grupuri de cercetare, a confirmat WIRED."

"În luna iulie a anului trecut, OpenAI a anunțat formarea unei noi echipe de cercetare care să pregătească apariția unei inteligențe artificiale super-inteligente, capabilă să își păcălească și să își depășească creatorii. Ilya Sutskever, cercetătorul șef al OpenAI și unul dintre cofondatorii companiei, a fost numit coleader al acestei noi echipe. OpenAI a declarat că echipa va primi 20% din puterea sa de calcul.
Acum, "echipa de superaliniere" a OpenAI nu mai există, confirmă compania. Acest lucru vine după plecarea mai multor cercetători implicați, după ce marți s-a aflat că Sutskever părăsește compania și după demisia celuilalt coleadru al echipei. Activitatea grupului va fi absorbită în alte eforturi de cercetare ale OpenAI.
Plecarea lui Sutskever a ținut prima pagină a ziarelor, deoarece, deși l-a ajutat pe directorul general Sam Altman să înființeze OpenAI în 2015 și a stabilit direcția cercetărilor care au dus la ChatGPT, el a fost, de asemenea, unul dintre cei patru membri ai consiliului de administrație care l-au concediat pe Altman în noiembrie. Altman a fost repus în funcția de CEO cinci zile haotice mai târziu, după o revoltă în masă a personalului OpenAI și medierea unui acord prin care Sutskever și alți doi directori ai companiei au părăsit consiliul de administrație.

La câteva ore după ce marți a fost anunțată plecarea lui Sutskever, Jan Leike, fostul cercetător DeepMind care era celălalt colead al echipei de supraaliniere, a postat pe X că a demisionat.
Nici Sutskever și nici Leike nu au răspuns la solicitările de comentarii și nu au comentat public motivul pentru care au părăsit OpenAI. Sutskever a oferit sprijin pentru calea actuală a OpenAI într-o postare pe X. "Traiectoria companiei a fost de-a dreptul miraculoasă și sunt încrezător că OpenAI va construi AGI care este atât sigură, cât și benefică" sub conducerea sa actuală, a scris el.
Dizolvarea echipei de superaliniere a OpenAI se adaugă la dovezile recente ale unei scuturări în interiorul companiei în urma crizei de guvernanță din noiembrie anul trecut. Doi cercetători din echipă, Leopold Aschenbrenner și Pavel Izmailov, au fost concediați pentru că au divulgat secrete ale companiei, a relatat luna trecută The Information. Un alt membru al echipei, William Saunders, a părăsit OpenAI în februarie, potrivit unei postări pe un forum de internet pe numele său.
De asemenea, alți doi cercetători OpenAI care lucrează la politica și guvernanța AI par să fi părăsit recent compania. Cullen O'Keefe și-a părăsit rolul de director de cercetare privind frontierele politicii în aprilie, potrivit LinkedIn. Daniel Kokotajlo, un cercetător OpenAI care a fost coautor al mai multor lucrări despre pericolele unor modele de inteligență artificială mai capabile, "a părăsit OpenAI din cauza pierderii încrederii că se va comporta responsabil în preajma AGI", potrivit unei postări pe un forum de internet pe numele său. Niciunul dintre cercetătorii care se pare că au plecat nu a răspuns la solicitările de comentarii.
OpenAI a refuzat să comenteze plecările lui Sutskever sau ale altor membri ai echipei de superaliniere, sau viitorul activității sale privind riscurile pe termen lung ale IA. Cercetările privind riscurile asociate cu modele mai puternice vor fi conduse acum de John Schulman, care conduce echipa responsabilă cu reglarea fină a modelelor de inteligență artificială după antrenament.
CELE MAI POPULARE
BACKCHANNEL
Am fost sub acoperire ca un secret OnlyFans Chatter. Nu a fost frumos
BRENDAN I. KOERNER
SECURITATE
Bine ați venit la Războaiele Laser
JARED KELLER
AFACERI
Este sfârșitul căutării Google așa cum o știam noi
LAUREN GOODE
GEAR
Odată cu lansarea de către OpenAI a GPT-4o, mai merită ChatGPT Plus?
REECE ROGERS
Echipa de superaliniere nu a fost singura echipă care se gândea la întrebarea cum să țină AI sub control, deși a fost poziționată public ca fiind principala care lucra la cea mai îndepărtată versiune a acestei probleme. În postarea de pe blog care anunța echipa de superaliniere vara trecută se spunea: "În prezent, nu avem o soluție pentru a conduce sau a controla o inteligență artificială potențial superinteligentă și pentru a o împiedica să devină necinstită".

Carta OpenAI o obligă să dezvolte în siguranță așa-numita inteligență generală artificială, sau tehnologie care rivalizează sau depășește oamenii, în condiții de siguranță și în beneficiul umanității. Sutskever și alți lideri de acolo au vorbit adesea despre necesitatea de a proceda cu prudență. Dar OpenAI a fost, de asemenea, timpuriu în ceea ce privește dezvoltarea și lansarea publică a proiectelor experimentale de inteligență artificială pentru public. OpenAI a fost cândva neobișnuit printre laboratoarele de inteligență artificială proeminente pentru entuziasmul cu care liderii de cercetare, precum Sutskever, vorbeau despre crearea de inteligență artificială supraumană și despre potențialul ca o astfel de tehnologie să se întoarcă împotriva umanității. Acest tip de discuții sumbre despre AI a devenit mult mai răspândit anul trecut, după ce ChatGPT a transformat OpenAI în cea mai proeminentă și mai atent urmărită companie tehnologică de pe planetă. Pe măsură ce cercetătorii și factorii de decizie politică s-au luptat cu implicațiile ChatGPT și cu perspectiva unei inteligențe artificiale mult mai capabile, a devenit mai puțin controversată îngrijorarea cu privire la faptul că inteligența artificială poate dăuna oamenilor sau umanității în ansamblu. De atunci, angoasa existențială s-a răcit - și AI nu a făcut încă un alt salt masiv - dar nevoia de reglementare a AI rămâne un subiect fierbinte. Iar săptămâna aceasta, OpenAI a prezentat o nouă versiune a ChatGPT care ar putea schimba din nou relația oamenilor cu tehnologia în moduri noi, puternice și poate problematice. Plecările lui Sutskever și Leike vin la scurt timp după ultima mare dezvăluire a OpenAI - un nou model de AI "multimodal" numit GPT-4o, care permite ChatGPT să vadă lumea și să converseze într-un mod mai natural și mai asemănător cu cel uman. O demonstrație transmisă în direct a arătat că noua versiune a ChatGPT imită emoțiile umane și chiar încearcă să flirteze cu utilizatorii. OpenAI a declarat că va pune noua interfață la dispoziția utilizatorilor plătiți în câteva săptămâni.
Nu există niciun indiciu că plecările recente au vreo legătură cu eforturile OpenAI de a dezvolta o inteligență artificială mai asemănătoare cu cea umană sau de a livra produse. Dar ultimele progrese ridică întrebări etice legate de confidențialitate, manipulare emoțională și riscuri de securitate cibernetică. OpenAI menține un alt grup de cercetare numit echipa Preparedness, care se concentrează pe aceste probleme"

Niciun comentariu:

Trimiteți un comentariu