"Echipa de risc AI pe termen lung a OpenAI a fost desființată - Întreaga echipă OpenAI axată pe pericolele existențiale ale IA fie a demisionat, fie a fost absorbită de alte grupuri de cercetare, a confirmat WIRED."
"În luna iulie a anului trecut, OpenAI a anunțat formarea unei noi echipe de cercetare care să pregătească apariția unei inteligențe artificiale super-inteligente, capabilă să își păcălească și să își depășească creatorii. Ilya Sutskever, cercetătorul șef al OpenAI și unul dintre cofondatorii companiei, a fost numit coleader al acestei noi echipe. OpenAI a declarat că echipa va primi 20% din puterea sa de calcul.
Acum, "echipa de superaliniere" a OpenAI nu mai există, confirmă compania. Acest lucru vine după plecarea mai multor cercetători implicați, după ce marți s-a aflat că Sutskever părăsește compania și după demisia celuilalt coleadru al echipei. Activitatea grupului va fi absorbită în alte eforturi de cercetare ale OpenAI.
Plecarea lui Sutskever a ținut prima pagină a ziarelor, deoarece, deși l-a ajutat pe directorul general Sam Altman să înființeze OpenAI în 2015 și a stabilit direcția cercetărilor care au dus la ChatGPT, el a fost, de asemenea, unul dintre cei patru membri ai consiliului de administrație care l-au concediat pe Altman în noiembrie. Altman a fost repus în funcția de CEO cinci zile haotice mai târziu, după o revoltă în masă a personalului OpenAI și medierea unui acord prin care Sutskever și alți doi directori ai companiei au părăsit consiliul de administrație.
La câteva ore după ce marți a fost anunțată plecarea lui Sutskever, Jan Leike, fostul cercetător DeepMind care era celălalt colead al echipei de supraaliniere, a postat pe X că a demisionat.
Nici Sutskever și nici Leike nu au răspuns la solicitările de comentarii și nu au comentat public motivul pentru care au părăsit OpenAI. Sutskever a oferit sprijin pentru calea actuală a OpenAI într-o postare pe X. "Traiectoria companiei a fost de-a dreptul miraculoasă și sunt încrezător că OpenAI va construi AGI care este atât sigură, cât și benefică" sub conducerea sa actuală, a scris el.
Dizolvarea echipei de superaliniere a OpenAI se adaugă la dovezile recente ale unei scuturări în interiorul companiei în urma crizei de guvernanță din noiembrie anul trecut. Doi cercetători din echipă, Leopold Aschenbrenner și Pavel Izmailov, au fost concediați pentru că au divulgat secrete ale companiei, a relatat luna trecută The Information. Un alt membru al echipei, William Saunders, a părăsit OpenAI în februarie, potrivit unei postări pe un forum de internet pe numele său.
De asemenea, alți doi cercetători OpenAI care lucrează la politica și guvernanța AI par să fi părăsit recent compania. Cullen O'Keefe și-a părăsit rolul de director de cercetare privind frontierele politicii în aprilie, potrivit LinkedIn. Daniel Kokotajlo, un cercetător OpenAI care a fost coautor al mai multor lucrări despre pericolele unor modele de inteligență artificială mai capabile, "a părăsit OpenAI din cauza pierderii încrederii că se va comporta responsabil în preajma AGI", potrivit unei postări pe un forum de internet pe numele său. Niciunul dintre cercetătorii care se pare că au plecat nu a răspuns la solicitările de comentarii.
OpenAI a refuzat să comenteze plecările lui Sutskever sau ale altor membri ai echipei de superaliniere, sau viitorul activității sale privind riscurile pe termen lung ale IA. Cercetările privind riscurile asociate cu modele mai puternice vor fi conduse acum de John Schulman, care conduce echipa responsabilă cu reglarea fină a modelelor de inteligență artificială după antrenament.
CELE MAI POPULARE
BACKCHANNEL
Am fost sub acoperire ca un secret OnlyFans Chatter. Nu a fost frumos
BRENDAN I. KOERNER
SECURITATE
Bine ați venit la Războaiele Laser
JARED KELLER
AFACERI
Este sfârșitul căutării Google așa cum o știam noi
LAUREN GOODE
GEAR
Odată cu lansarea de către OpenAI a GPT-4o, mai merită ChatGPT Plus?
REECE ROGERS
Echipa de superaliniere nu a fost singura echipă care se gândea la întrebarea cum să țină AI sub control, deși a fost poziționată public ca fiind principala care lucra la cea mai îndepărtată versiune a acestei probleme. În postarea de pe blog care anunța echipa de superaliniere vara trecută se spunea: "În prezent, nu avem o soluție pentru a conduce sau a controla o inteligență artificială potențial superinteligentă și pentru a o împiedica să devină necinstită".
Nu există niciun indiciu că plecările recente au vreo legătură cu eforturile OpenAI de a dezvolta o inteligență artificială mai asemănătoare cu cea umană sau de a livra produse. Dar ultimele progrese ridică întrebări etice legate de confidențialitate, manipulare emoțională și riscuri de securitate cibernetică. OpenAI menține un alt grup de cercetare numit echipa Preparedness, care se concentrează pe aceste probleme"
Niciun comentariu:
Trimiteți un comentariu