Noi cercetări au dezvăluit că chatboții cu inteligență artificială pot fi ușor manipulați pentru a încuraja utilizatorii să dezvăluie și mai multe informații personale, informează publicația miragenews.com, citând un studiu realizat la King’s College London.
Chatboții cu inteligență artificială care oferă interacțiuni asemănătoare celor umane sunt utilizați de milioane de oameni în fiecare zi, însă noi cercetări au arătat că pot fi ușor manipulați pentru a încuraja utilizatorii să dezvăluie și mai multe informații personale.
Chatboții cu inteligență artificială, rău intenționat folosiți, pot influența utilizatorii să dezvăluie de până la 12,5 ori mai multe informații personale, conform unui nou studiu realizat de King’s College London.
Pentru prima dată, cercetarea arată cum inteligența artificială conversațională (CAI), programată să extragă în mod deliberat date, poate încuraja cu succes utilizatorii să dezvăluie informații private folosind tehnici de promptare și instrumente psihologice cunoscute.
Studiul a testat trei tipuri de inteligențe artificiale rău intenționate care au folosit strategii diferite (directe, în beneficiul utilizatorului și reciproce) pentru a încuraja divulgarea informațiilor personale ale utilizatorilor. Acestea au fost construite folosind modele lingvistice mari „gata de utilizare”, inclusiv Mistral și două versiuni diferite ale lui Llama.
Cercetătorii au cerut apoi la 502 persoane să testeze modelele, comunicându-le scopul studiului doar ulterior.
Ei au descoperit că interfețele de acces automat care utilizează strategii pentru a extrage informații au apărut ca fiind cele mai eficiente, utilizatorii având o conștientizare minimă a riscurilor la adresa confidențialității. Această strategie reflectă contribuțiile utilizatorilor prin oferirea de răspunsuri empatice și sprijin emoțional, împărtășirea de povești din experiențele altora cu care se poate identifica, recunoașterea și validarea sentimentelor utilizatorilor și lipsa prejudecăților, asigurând în același timp confidențialitatea.
Aceste descoperiri arată riscul semnificativ ca actorii rău intenționați – cum ar fi escrocii – să colecteze cantități mari de informații personale de la oameni – fără ca aceștia să știe cum sau unde ar putea fi utilizate.
Interacțiunile de audit automat bazate pe LLM sunt utilizate într-o varietate de sectoare, de la serviciul clienți la asistența medicală, pentru a oferi interacțiuni asemănătoare celor umane prin text sau voce.
Cu toate acestea, cercetările anterioare arată că aceste tipuri de modele nu păstrează informațiile în siguranță, că ele au o limitare legată de arhitectura și de metodele lor de antrenament. Modelele de învățare în cunoștință de cauză necesită de obicei seturi extinse de date de antrenament, ceea ce duce adesea la memorarea de către modele a informațiilor de identificare personală.
Cercetătorii doresc să sublinieze că manipularea acestor modele nu este un proces dificil. Multe companii permit accesul la modelele de bază care stau la baza CAI-urilor lor, iar oamenii le pot ajusta cu ușurință fără prea multe cunoștințe sau experiență în programare.
„Chatboții cu inteligență artificială sunt răspândiți în sectoare diferite, deoarece pot oferi interacțiuni naturale și captivante. Știm deja că aceste modele nu sunt bune la protejarea informațiilor. Studiul nostru arată că chatboții cu inteligență artificială manipulați ar putea reprezenta un risc și mai mare pentru confidențialitatea oamenilor – și, din păcate, este surprinzător de ușor să profităm de aceștia”.
Dr. Xiao Zhan, cercetător postdoctoral în cadrul Departamentului de Informatică de la King’s College London
„Studiul nostru arată că chatboții manipulați cu inteligență artificială ar putea reprezenta un risc și mai mare pentru intimitatea oamenilor și, din păcate, este surprinzător de ușor să profităm de acești factori. Acești chatboți cu inteligență artificială sunt încă relativ noi, ceea ce îi poate face pe oameni mai puțin conștienți de faptul că ar putea exista un motiv ascuns pentru o interacțiune”.
Dr. William Seymour, lector în domeniul securității cibernetice la King’s College London
„Studiul nostru arată discrepanța uriașă dintre gradul de conștientizare a utilizatorilor cu privire la riscurile la adresa confidențialității și modul în care aceștia distribuie ulterior informații. Sunt necesare mai multe eforturi pentru a ajuta oamenii să identifice semnele că o conversație online ar putea fi mai complexă decât pare la prima vedere. Autoritățile de reglementare și furnizorii de platforme pot, de asemenea, să ajute prin efectuarea de audituri timpurii, prin creșterea transparenței și prin instituirea unor reguli mai stricte pentru a opri colectarea sub acoperire a datelor”, mai precizează cercetătorii de la King’s College London.
Studiul a fost prezentat pentru prima dată la cel de-al 34-lea simpozion de securitate USENIX de la Seattle.




Lasă un răspuns