Microsoft боїться атаки найпопулярнішого штучного інтелекту
Старший інженер з офісу Microsoft попросив своїх співробітників не ділитися з чат-ботом ChatGPT конфіденційною інформацією під час використання ШІ у робочих завданнях. Згідно з інформацією видання Insider, незважаючи на співпрацю Microsoft та OpenAI, технічний гігант побоюється витоків кодів.
На запитання працівників про можливість використання чат-бота у своїй роботі менеджери рекомендують їм не передавати конфіденційну інформацію ChatGPT, у тому числі коди. Працівників Microsoft також попередили про відповідальність за передачу таких даних штучному інтелекту.
За словами професора і директора лабораторії штучного інтелекту в Університеті Карнегі-Меллон Вінсента Конітцера, співпраця Microsoft і OpenAI може спричинити конфлікт інтересів. У разі витоку конфіденційної інформації буде складно визначити винного — відповідальність нестимуть співробітники Microsoft за розголошення або OpenAI за необережне використання інформації, або винними можуть виявитися обидві сторони.
Умови угоди між OpenAI та Microsoft дозволяють використовувати всі дані, створені користувачами та чат-ботом ChatGPT. Компанії домовилися, що вся особиста інформація (PII) при цьому видаляється. Однак, враховуючи зростання інтересу до ChatGPT, особисту інформацію зараз неможливо ідентифікувати та видалити. А корпоративна інтелектуальна власність, найімовірніше, не підпадає під визначення PII.
Источник: noworries.news