Пам’ятайте про свою мову: ризики використання в організації чат-ботів на основі ШІ, таких як ChatGPT

Приєднайтеся до керівників вищої ланки в Сан-Франциско 11-12 липня, щоб дізнатися, як лідери інтегрують і оптимізують інвестиції в ШІ для успіху. Дізнайтеся більше

З моменту запуску ChatGPT у листопаді 2022 року мільйони користувачів звернулися до ChatGPT. Завдяки винятковим можливостям генерування людської мови, здатності до кодування програмного забезпечення та блискавичному розбору тексту ChatGPT швидко став популярним інструментом для розробників, дослідників і звичайних користувачів.

Але, як і будь-яка проривна технологія, генеративні системи ШІ, такі як ChatGPT, пов’язані з потенційними ризиками. Зокрема, основні гравці технологічної індустрії, державні розвідувальні служби та інші урядові установи повідомляли про попередження про введення конфіденційної інформації в системи ШІ, такі як ChatGPT.

Занепокоєння виникає через те, що ця інформація зрештою може стати загальнодоступним через порушення безпеки чи використання створеного користувачами вмісту для «навчання» чат-ботів.

У відповідь на ці занепокоєння технологічні організації вживають заходів для зменшення ризиків безпеки, пов’язаних із великими мовними моделями (LLM) і розмовним штучним інтелектом (CAI). Кілька організацій вирішили взагалі заборонити використання ChatGPT, а інші попередили своїх співробітників про ризики введення конфіденційних даних у такі шаблони.

Подія

Перетворення 2023

Приєднуйтеся до нас у Сан-Франциско 11-12 липня, де топ-менеджери обговорять, як вони інтегрували та оптимізували інвестиції в штучний інтелект для досягнення успіху та уникнення поширених пасток.

Зареєструватися зараз

ChatGPT на основі ШІ став популярним інструментом для компаній, які прагнуть оптимізувати свою діяльність і спростити складні завдання. Однак нещодавні інциденти підкреслили потенційну небезпеку поширення конфіденційної інформації через платформу.

Тривожним є те, що менше ніж за місяць було зареєстровано три випадки витоку конфіденційних даних через ChatGPT. Останній стався минулого тижня. Виробник смартфонів Samsung був втягнутий у полеміку, коли корейські ЗМІ повідомили, що співробітники його великих заводів з виробництва напівпровідників вилучили конфіденційну інформацію, включаючи надважливий вихідний код, який використовується для усунення помилок програмування, у чат-боті ШІ.

Вихідний код є одним із найбільш збережених секретів будь-якої технологічної компанії, оскільки він є наріжним каменем будь-якого програмного забезпечення чи операційної системи. У результаті цінні комерційні секрети тепер випадково потрапили у володіння OpenAI, потужного постачальника послуг ШІ, який штурмом захопив світ технологій.

Незважаючи на запити VentureBeat, Samsung не прокоментувала це, але джерела, близькі до компанії, показали, що компанія, очевидно, обмежила доступ свого персоналу до ChatGPT.

Інші конгломерати зі списку Fortune 500, зокрема Amazon, Walmart і JPMorgan, стикалися з подібними випадками, коли співробітники випадково передавали конфіденційні дані чат-боту.

Звіти співробітників Amazon говорять нам...

Пам’ятайте про свою мову: ризики використання в організації чат-ботів на основі ШІ, таких як ChatGPT

Приєднайтеся до керівників вищої ланки в Сан-Франциско 11-12 липня, щоб дізнатися, як лідери інтегрують і оптимізують інвестиції в ШІ для успіху. Дізнайтеся більше

З моменту запуску ChatGPT у листопаді 2022 року мільйони користувачів звернулися до ChatGPT. Завдяки винятковим можливостям генерування людської мови, здатності до кодування програмного забезпечення та блискавичному розбору тексту ChatGPT швидко став популярним інструментом для розробників, дослідників і звичайних користувачів.

Але, як і будь-яка проривна технологія, генеративні системи ШІ, такі як ChatGPT, пов’язані з потенційними ризиками. Зокрема, основні гравці технологічної індустрії, державні розвідувальні служби та інші урядові установи повідомляли про попередження про введення конфіденційної інформації в системи ШІ, такі як ChatGPT.

Занепокоєння виникає через те, що ця інформація зрештою може стати загальнодоступним через порушення безпеки чи використання створеного користувачами вмісту для «навчання» чат-ботів.

У відповідь на ці занепокоєння технологічні організації вживають заходів для зменшення ризиків безпеки, пов’язаних із великими мовними моделями (LLM) і розмовним штучним інтелектом (CAI). Кілька організацій вирішили взагалі заборонити використання ChatGPT, а інші попередили своїх співробітників про ризики введення конфіденційних даних у такі шаблони.

Подія

Перетворення 2023

Приєднуйтеся до нас у Сан-Франциско 11-12 липня, де топ-менеджери обговорять, як вони інтегрували та оптимізували інвестиції в штучний інтелект для досягнення успіху та уникнення поширених пасток.

Зареєструватися зараз

ChatGPT на основі ШІ став популярним інструментом для компаній, які прагнуть оптимізувати свою діяльність і спростити складні завдання. Однак нещодавні інциденти підкреслили потенційну небезпеку поширення конфіденційної інформації через платформу.

Тривожним є те, що менше ніж за місяць було зареєстровано три випадки витоку конфіденційних даних через ChatGPT. Останній стався минулого тижня. Виробник смартфонів Samsung був втягнутий у полеміку, коли корейські ЗМІ повідомили, що співробітники його великих заводів з виробництва напівпровідників вилучили конфіденційну інформацію, включаючи надважливий вихідний код, який використовується для усунення помилок програмування, у чат-боті ШІ.

Вихідний код є одним із найбільш збережених секретів будь-якої технологічної компанії, оскільки він є наріжним каменем будь-якого програмного забезпечення чи операційної системи. У результаті цінні комерційні секрети тепер випадково потрапили у володіння OpenAI, потужного постачальника послуг ШІ, який штурмом захопив світ технологій.

Незважаючи на запити VentureBeat, Samsung не прокоментувала це, але джерела, близькі до компанії, показали, що компанія, очевидно, обмежила доступ свого персоналу до ChatGPT.

Інші конгломерати зі списку Fortune 500, зокрема Amazon, Walmart і JPMorgan, стикалися з подібними випадками, коли співробітники випадково передавали конфіденційні дані чат-боту.

Звіти співробітників Amazon говорять нам...

What's Your Reaction?

like

dislike

love

funny

angry

sad

wow