5 порад для власників бізнесу з Білля про права ШІ президента Байдена

Президент Байден вживає подальших заходів для забезпечення ефективного управління швидким прогресом у технології штучного інтелекту. Нещодавно адміністрація Байдена оприлюднила проект «Білля про права ШІ», набору з п’яти рекомендацій, спрямованих на те, щоб системи штучного інтелекту були безпечними, справедливими, необов’язковими і, перш за все, етичними.

На відміну від чинного Білля про права, цей документ не є юридично обов’язковим. Навпаки, план існує для формалізації найкращих практик основних гравців у сфері штучного інтелекту. і простір машинного навчання. За словами Венката Рангапурама, генерального директора постачальника рішень для обробки даних Pactera Edge, ці дії включають забезпечення того, щоб штучний інтелект не був упередженим через погані дані, надання думок щодо використання автоматизації та надання людських альтернатив автоматизованим службам.

Ось п'ять «прав», визначених планом Білого дому, і те, як компаніям слід їх використовувати під час розробки та використання автоматизованих систем.

1. Переконайтеся, що автоматизовані системи безпечні та ефективні.

Безпека та безпека користувачів завжди мають бути найважливішими у розробці ШІ. системи, згідно генплану. Адміністрація стверджує, що автоматизовані системи слід розробляти за участю громадськості, дозволяючи проводити консультації з різними групами людей, які можуть визначити потенційні ризики та проблеми, і що системи повинні пройти суворе тестування та моніторинг перед розгортанням, щоб продемонструвати їх безпеку.

Приклад шкідливого ШІ. Згаданий у документі цитує Amazon, який встановив камери з підтримкою штучного інтелекту у своїх фургонах, щоб оцінити звички безпеки своїх водіїв. Система некоректно штрафувала водіїв, коли їм підрізали інші автомобілі або коли на дорозі відбувалися інші події, які вони не могли контролювати. У результаті деякі водії не мали права на отримання бонусу.

2. Захист користувачів від алгоритмічної дискримінації.

Друге праворуч має справу з тенденцією автоматизованих систем «виробляти несправедливі результати», використовуючи дані, які не враховують існуючі системні упередження в американському суспільстві, наприклад програмне забезпечення для розпізнавання обличчя, яке частіше ідентифікує кольорових людей. ніж білі люди, або автоматизований інструмент найму, який відхиляє заявки від жінок.

Для боротьби з цим у плані пропонується використовувати Algorithmic Bias Safeguards for Workforce, документ, що містить найкращі практики, розроблені консорціумом лідерів галузі, включаючи IBM, Meta та Deloitte. Документ ілюструє кроки для навчання працівників алгоритмічним упередженням, а також інструкції щодо впровадження заходів захисту на робочому місці.

3. Захистіть користувачів від неправомірної політики даних.

Згідно з третім правом, кожен повинен мати можливість вирішувати, як використовувати його дані. Пропозиція передбачає, що дизайнери та розробники автоматизованих систем запитують дозвіл користувачів і поважають рішення користувачів щодо збору, використання, доступу, передачі та доставки персональних даних. У плані додається, що будь-який запит на згоду має бути коротким і зрозумілим простою мовою.

Рангапурам каже, що розробити ваші автоматизовані системи так, щоб вони постійно навчалися, не виглядаючи надто владними, є «важким балансом», але додає, що дозволити окремим користувачам визначати власний рівень комфорту та конфіденційності — це добре Перший крок.

4. Надавати користувачам повідомлення та пояснення.

Споживачі повинні завжди знати, коли використовується автоматизована система, і отримувати достатньо інформації, щоб зрозуміти, як і чому вона впливає на результати, які впливають на них, відповідно до четвертого права.

Загалом Рангапурам стверджує, що негативні суспільні настрої щодо компаній, які збирають дані, можуть негативно вплинути на розвиток нових технологій. З’ясувати, як і чому використовуються дані, ще ніколи не було так важливо. Розповідаючи людям про свої дані, компанії можуть заслужити довіру...

5 порад для власників бізнесу з Білля про права ШІ президента Байдена

Президент Байден вживає подальших заходів для забезпечення ефективного управління швидким прогресом у технології штучного інтелекту. Нещодавно адміністрація Байдена оприлюднила проект «Білля про права ШІ», набору з п’яти рекомендацій, спрямованих на те, щоб системи штучного інтелекту були безпечними, справедливими, необов’язковими і, перш за все, етичними.

На відміну від чинного Білля про права, цей документ не є юридично обов’язковим. Навпаки, план існує для формалізації найкращих практик основних гравців у сфері штучного інтелекту. і простір машинного навчання. За словами Венката Рангапурама, генерального директора постачальника рішень для обробки даних Pactera Edge, ці дії включають забезпечення того, щоб штучний інтелект не був упередженим через погані дані, надання думок щодо використання автоматизації та надання людських альтернатив автоматизованим службам.

Ось п'ять «прав», визначених планом Білого дому, і те, як компаніям слід їх використовувати під час розробки та використання автоматизованих систем.

1. Переконайтеся, що автоматизовані системи безпечні та ефективні.

Безпека та безпека користувачів завжди мають бути найважливішими у розробці ШІ. системи, згідно генплану. Адміністрація стверджує, що автоматизовані системи слід розробляти за участю громадськості, дозволяючи проводити консультації з різними групами людей, які можуть визначити потенційні ризики та проблеми, і що системи повинні пройти суворе тестування та моніторинг перед розгортанням, щоб продемонструвати їх безпеку.

Приклад шкідливого ШІ. Згаданий у документі цитує Amazon, який встановив камери з підтримкою штучного інтелекту у своїх фургонах, щоб оцінити звички безпеки своїх водіїв. Система некоректно штрафувала водіїв, коли їм підрізали інші автомобілі або коли на дорозі відбувалися інші події, які вони не могли контролювати. У результаті деякі водії не мали права на отримання бонусу.

2. Захист користувачів від алгоритмічної дискримінації.

Друге праворуч має справу з тенденцією автоматизованих систем «виробляти несправедливі результати», використовуючи дані, які не враховують існуючі системні упередження в американському суспільстві, наприклад програмне забезпечення для розпізнавання обличчя, яке частіше ідентифікує кольорових людей. ніж білі люди, або автоматизований інструмент найму, який відхиляє заявки від жінок.

Для боротьби з цим у плані пропонується використовувати Algorithmic Bias Safeguards for Workforce, документ, що містить найкращі практики, розроблені консорціумом лідерів галузі, включаючи IBM, Meta та Deloitte. Документ ілюструє кроки для навчання працівників алгоритмічним упередженням, а також інструкції щодо впровадження заходів захисту на робочому місці.

3. Захистіть користувачів від неправомірної політики даних.

Згідно з третім правом, кожен повинен мати можливість вирішувати, як використовувати його дані. Пропозиція передбачає, що дизайнери та розробники автоматизованих систем запитують дозвіл користувачів і поважають рішення користувачів щодо збору, використання, доступу, передачі та доставки персональних даних. У плані додається, що будь-який запит на згоду має бути коротким і зрозумілим простою мовою.

Рангапурам каже, що розробити ваші автоматизовані системи так, щоб вони постійно навчалися, не виглядаючи надто владними, є «важким балансом», але додає, що дозволити окремим користувачам визначати власний рівень комфорту та конфіденційності — це добре Перший крок.

4. Надавати користувачам повідомлення та пояснення.

Споживачі повинні завжди знати, коли використовується автоматизована система, і отримувати достатньо інформації, щоб зрозуміти, як і чому вона впливає на результати, які впливають на них, відповідно до четвертого права.

Загалом Рангапурам стверджує, що негативні суспільні настрої щодо компаній, які збирають дані, можуть негативно вплинути на розвиток нових технологій. З’ясувати, як і чому використовуються дані, ще ніколи не було так важливо. Розповідаючи людям про свої дані, компанії можуть заслужити довіру...

What's Your Reaction?

like

dislike

love

funny

angry

sad

wow