Înapoi la știri

Google anunță că atacatorii au folosit peste 100.000 de solicitări pentru a încerca să cloneze chatbotul AI Gemini

13 Feb 2026
4 minute min
Cristina Preda
Google anunță că atacatorii au folosit peste 100.000 de solicitări pentru a încerca să cloneze chatbotul AI Gemini

Google afirmă că chatbotul său artificial de inteligență, Gemini, a fost supus unor atacuri motivate comercial, actorii care stau în spatele acestora încercând să-l cloneze prin solicitări repetate, uneori cu mii de întrebări diferite. Conform unui raport publicat joi, Google spune că a fost tot mai des vizat de „atacuri de distilare”, întrebări repetate menite să dezvăluie funcționarea internă a chatbotului, potrivit nbcnews.com.

👉 Descrierea metodei și scopului atacurilor asupra modelului Gemini

Google a descris activitatea drept „extracție de model”, în care clonele potențiale probează sistemul pentru a descoperi tiparele și logica care îl fac să funcționeze. Atacatorii par să vrea să folosească informațiile pentru a construi sau îmbunătăți propriile lor soluții AI, a indicat compania. Aceasta consideră că autorii sunt în principal companii private sau cercetători care caută un avantaj competitiv. Un purtător de cuvânt a declarat pentru NBC News că Google crede că atacurile au venit din întreaga lume, dar nu a oferit detalii suplimentare despre suspecți.

👉 Riscurile și vulnerabilitățile asociate atacurilor asupra AI

Scopul atacurilor asupra lui Gemini sugerează că acestea ar putea deveni comune și pentru instrumentele de AI personalizate ale companiilor mai mici, a spus John Hultquist, analistul-șef al Grupului de Inteligență în Fața Amenințărilor de la Google. „Vom fi canar în mina de cărbune pentru mult mai multe incidente”, a declarat Hultquist, refuzând să numească suspecți. Compania consideră distilarea ca fiind furt de proprietate intelectuală.

Companiile tehnologice au cheltuit miliarde de dolari într-o cursă pentru a dezvolta chatboturi AI sau modele de limbaj mari (LLM), considerând că funcționarea internă a celor mai bune modele ale lor este o informație extrem de valoroasă și protejată. Deși au mecanisme pentru a încerca să identifice atacurile de distilare și să blocheze persoanele din spatele lor, LLM-urile majore sunt inerent vulnerabile la distilare, deoarece sunt accesibile oricui pe internet.

OpenAI, compania din spatele ChatGPT, a acuzat rivalul său chinez DeepSeek anul trecut de desfășurarea atacurilor de distilare pentru a îmbunătăți modelele sale. Multe dintre atacuri au fost concepute pentru a scoate la iveală algoritmii care ajută Gemini să „raționeze” sau să decidă cum să proceseze informațiile, a declarat Google. Hultquist a afirmat că, pe măsură ce tot mai multe companii își proiectează proprii LLM-i personalizați antrenați pe date potențial sensibile, devin vulnerabile la atacuri similare. „Să spunem că LLM-ul dumneavoastră a fost antrenat pe 100 de ani de gândire secretă a modului în care faceți comerț. Teoretic, ați putea distila o parte din aceasta”, a spus el.

Alte postari din Tech
Tech

Fostul exec Xbox spune că dezvoltatorii nu voiau un monopol Sony

Ed Fries, care a condus echipa de la Microsoft ce a lansat primul Xbox în 2001, vorbește acum despre începuturile Xbox. Potrivit insider-gaming.com, el discută despre cum unele companii au încercat să prevină monopoalele în anii 2000, dar au fost prudenți în ceea ce privește nivelul de suport acordat noului concurent.

Tech

Poke facează agenți AI la fel de ușor ca trimiterea unui mesaj

Startup-ul Poke oferă un agent AI accesibil prin iMessage, SMS, Telegram și, în unele piețe, WhatsApp. Lansat public în martie, Poke permite utilizatorilor să aibă un asistent personal care poate acționa în numele lor printr-o interfață familiară.

Acasa Recente Radio Județe