Внимавајте да не испливаат вашите интимни фотографии и сексуални фантазии: Chat GPT закана за сериозни злоупотреби на приватноста!

Многу AI чет-ботови ги користат разговорите што ги водите со нив како податоци за обука, за да продолжат да ги развиваат своите генеративни модели.
Но, дел од корисниците можеби и не сфаќаат дека тие разговори не се целосно приватни.
Минатата недела, компанијата за вештачка интелигенција „Anthropic“ објави дека ќе почне да тренира неколку верзии на својот модел Claude, врз основа на разговорите со корисниците – освен ако тие не се откажат од тоа.
Како цел беше наведено подобрување на моделот, вклучувајќи и подобра детекција на незаконска или штетна содржина.
Иако овој потег предизвика внимание, практиката веќе е честа меѓу најпопуларните AI алатки.
Meta, која е и голем AI развивач, уште во април најави дека ќе почне да го тренира својот AI врз основа на интеракциите на корисниците. Освен тоа, Meta ќе ги користи и јавно достапните лични информации од Фејсбук и Инстаграм, освен ако корисниците не се одјават.
И покрај критиките, ирскиот регулатор за заштита на податоци го одобри овој потег.
Најкористениот чет-бот ChatGPT од OpenAI, исто така ги користи разговорите на корисниците за понатамошна обука, со можност да се одбиe таа практика.
Слично е и со Gemini на Google, кој ги користи претходните разговори за да нуди поперсонализирани одговори.
Главната загриженост е тоа што луѓето често споделуваат интимни или чувствителни информации со чет-ботовите. Некои дури ги користат како „терапевти“. CEO на OpenAI, Сем Алтман, предупреди дека овие разговори не се заштитени со доверливоста што би ја имал пациентот со психолог.
Покрај ризикот од злоупотреба на лични информации, користењето на вакви податоци отвора и правни прашања во Европа.
Според законите на ЕУ, секоја компанија што обработува лични податоци мора да има валидна правна основа. Повеќето AI компании како правен основ наведуваат „легитимен интерес“, тврдејќи дека за обука на моделите се потребни огромни количини податоци.
Иако имаше обиди да се сопре Meta поради законите за приватност во ЕУ, досега тие не успеале.
Експертите предупредуваат дека со зголемувањето на употребата на AI во секојдневието, развојот на таканаречени „AI агенти“ – уште понапредни системи за персонализирана помош – ќе бара пристап до огромни количини лични податоци, што може да биде уште поголем ризик.
EUpravo zato.rs / Фото извор: EPA / Freepik (М.С.К)