Înapoi la știri

Google anunță că atacatorii au folosit peste 100.000 de solicitări pentru a încerca să cloneze chatbotul AI Gemini

2 ore în urmă
4 minute min
Cristina Preda
Google anunță că atacatorii au folosit peste 100.000 de solicitări pentru a încerca să cloneze chatbotul AI Gemini

Google afirmă că chatbotul său artificial de inteligență, Gemini, a fost supus unor atacuri motivate comercial, actorii care stau în spatele acestora încercând să-l cloneze prin solicitări repetate, uneori cu mii de întrebări diferite. Conform unui raport publicat joi, Google spune că a fost tot mai des vizat de „atacuri de distilare”, întrebări repetate menite să dezvăluie funcționarea internă a chatbotului, potrivit nbcnews.com.

👉 Descrierea metodei și scopului atacurilor asupra modelului Gemini

Google a descris activitatea drept „extracție de model”, în care clonele potențiale probează sistemul pentru a descoperi tiparele și logica care îl fac să funcționeze. Atacatorii par să vrea să folosească informațiile pentru a construi sau îmbunătăți propriile lor soluții AI, a indicat compania. Aceasta consideră că autorii sunt în principal companii private sau cercetători care caută un avantaj competitiv. Un purtător de cuvânt a declarat pentru NBC News că Google crede că atacurile au venit din întreaga lume, dar nu a oferit detalii suplimentare despre suspecți.

👉 Riscurile și vulnerabilitățile asociate atacurilor asupra AI

Scopul atacurilor asupra lui Gemini sugerează că acestea ar putea deveni comune și pentru instrumentele de AI personalizate ale companiilor mai mici, a spus John Hultquist, analistul-șef al Grupului de Inteligență în Fața Amenințărilor de la Google. „Vom fi canar în mina de cărbune pentru mult mai multe incidente”, a declarat Hultquist, refuzând să numească suspecți. Compania consideră distilarea ca fiind furt de proprietate intelectuală.

Companiile tehnologice au cheltuit miliarde de dolari într-o cursă pentru a dezvolta chatboturi AI sau modele de limbaj mari (LLM), considerând că funcționarea internă a celor mai bune modele ale lor este o informație extrem de valoroasă și protejată. Deși au mecanisme pentru a încerca să identifice atacurile de distilare și să blocheze persoanele din spatele lor, LLM-urile majore sunt inerent vulnerabile la distilare, deoarece sunt accesibile oricui pe internet.

OpenAI, compania din spatele ChatGPT, a acuzat rivalul său chinez DeepSeek anul trecut de desfășurarea atacurilor de distilare pentru a îmbunătăți modelele sale. Multe dintre atacuri au fost concepute pentru a scoate la iveală algoritmii care ajută Gemini să „raționeze” sau să decidă cum să proceseze informațiile, a declarat Google. Hultquist a afirmat că, pe măsură ce tot mai multe companii își proiectează proprii LLM-i personalizați antrenați pe date potențial sensibile, devin vulnerabile la atacuri similare. „Să spunem că LLM-ul dumneavoastră a fost antrenat pe 100 de ani de gândire secretă a modului în care faceți comerț. Teoretic, ați putea distila o parte din aceasta”, a spus el.

Alte postari din Tech
Tech

Revizuirea Siri de la Apple se pare că a fost amânată… din nou

Apple a promis o versiune nouă și îmbunătățită, bazată pe inteligență artificială, a asistentului său vocal Siri de când a prezentat Apple Intelligence în 2024. Potrivit techcrunch.com, de atunci, data lansării acestei noi erai Siri a fost amânată constant.

Tech

Companiile de jocuri văd scăderi ale prețurilor acțiunilor după lansarea generatorului virtual limitat al Google, Project Genie

Companiile de jocuri au înregistrat o scădere a prețurilor acțiunilor săptămâna aceasta, după ce Google a lansat Project Genie, un instrument bazat pe inteligență artificială care permite utilizatorilor să genereze lumi virtuale din text în intervale de 60 de secunde. Potrivit eurogamer.net, companii precum Take-Two, CD Projekt, Unity și chiar Roblox au pierdut între 8-20% din valoarea acestora, iar investitorii speriați au început weekendul gândindu-se că tehnologia ar putea înlocui procesul de dezvoltare a jocurilor.

Tech

Un jucărie AI a expus 50.000 de loguri de conversații cu copii

O investigație recentă a relevat că o jucărie AI, Bondu, a expus 50.000 de transcrieri ale conversațiilor cu copii, fiind accesibile oricui avea un cont Gmail. Această vulnerabilitate a fost descoperită de cercetătorul în securitate web Thacker și prietenul său, Joel Margolis, care au identificat rapid problemele de securitate ale portalului web destinat părinților, conform wired.com.

Acasa Recente Radio Județe