Все повече хора водят с ChatGPT разговори, наподобяващи тези с терапевт, но се оказва, че чатът с него не е толкова поверителен, колкото мнозина си мислят. Главният изпълнителен директор на OpenAI Сам Алтман предупреди, че подобни разговори не се ползват със същата правна защита, каквато имат разговорите с реален терапевт.
„Така че, ако споделите с ChatGPT най-личните си неща и после има дело или нещо подобно, може да бъдем задължени да предоставим тези данни — и според мен това е много сбъркано“, каза Алтман в подкаста на Тео Вон.
Той допълни, че в момента, ако говорите с терапевт,
адвокат или лекар за подобни проблеми, съществува правна защита —
има поверителност между лекар и пациент, поверителност на адвокатската защита, все още не е изяснено как стои този въпрос, когато говорите с ChatGPT.
Алтман подчерта, че трябва да съществува „същото разбиране за поверителност при разговорите с изкуствен интелект, каквото има при терапевтите“ и че това е тема, която трябва да се „разгледа с известна спешност“.
Все повече потребители — особено млади хора —
използват ChatGPT като терапевт, личен консултант или за съвети в любовния си живот,
отбелязва Business Insider, цитиран от БТВ.
„Преди една година никой не се замисляше за това, а сега това е голям въпрос: Как ще се отнасяме към законите по този въпрос?“, каза Алтман.
За разлика от разговорите в криптирани услуги за съобщения като WhatsApp или Signal,
OpenAI може да чете чатове между потребители и ChatGPT.
Това включва служители, които използват разговорите за усъвършенстване на AI модела и за наблюдение на злоупотреби.
Според политиките на OpenAI за съхранение на данни изтритите чатове в ChatGPT Free, Plus и Pro изчезват трайно в рамките на 30 дни, освен ако компанията не е задължена да ги запази по „правни причини”.