Без чорних скриньок: залучайте людей до штучного інтелекту

У 1950-х роках Алан Тюрінг запропонував експеримент під назвою «Гра в імітацію» (зараз називається тестом Тюрінга). У ній він постулював ситуацію, коли хтось - допитувач - перебуває в кімнаті, окремій від іншої кімнати, в якій є комп'ютер і друга особа. Мета тесту полягала в тому, щоб допитувач ставив запитання як людині, так і комп’ютеру; Метою комп’ютера було змусити слідчого подумати, що це людина. Тюрінг передбачив, що врешті-решт комп’ютери зможуть успішно імітувати людську поведінку та обманювати слідчих у великій частині часу.

Передбачення Тюрінга ще не збулося, і ще невідомо, чи зможуть комп’ютери коли-небудь справді пройти випробування. Однак це водночас і корисна лінза, щоб побачити динаміку того, як люди бачать потенційні можливості штучного інтелекту, і джерело іронії. Хоча ШІ має неймовірні можливості, він також має обмеження. Сьогодні зрозуміло, що ніхто не знає повної роботи штучного інтелекту, який ми створюємо, а відсутність «зрозумілості» та людей у ​​циклі спричиняє проблеми та втрачені можливості.

Що б не чекало майбутнє, зрозуміло одне: прийняття рішень людиною має бути включено в робочий цикл ШІ. Той факт, що це «чорна скринька», призводить до упереджених рішень на основі упереджених алгоритмів, що може призвести до серйозних наслідків.

Чому ШІ часто є чорною скринькою

Поширена думка, що люди знають більше та мають більше контролю над ШІ, ніж насправді. Люди вірять, що оскільки комп’ютерні спеціалісти написали та скомпілювали код, код можна пізнати та контролювати. Однак це не обов’язково так.

Штучний інтелект часто може бути чорною скринькою, де ми точно не знаємо, як були сконструйовані кінцеві результати або якими вони стануть. Це тому, що код приводиться в рух, а потім, майже як колесо, що котиться з пагорба власним імпульсом, продовжує рухатися вперед, поглинаючи інформацію, адаптуючись і зростаючи. Результати не завжди передбачувані або обов’язково позитивні.

Штучний інтелект, хоча й потужний, може бути неточним і непередбачуваним. Є багато випадків збоїв штучного інтелекту, включно з серйозними автомобільними аваріями, що є результатом нездатності штучного інтелекту інтерпретувати світ так, як ми очікуємо. Багато недоліків виникає через те, що код створено людиною, але розвиток коду є самокерованим і не закріпленим. Іншими словами, ми знаємо, з чого почався код, але не точно, як він розвивався чи прогресував. Є серйозні запитання щодо того, що відбувається в голові машини.

Запитання варто поставити. Такі інциденти, як автомобільні аварії, мають серйозні недоліки, але більш тонкі інциденти, такі як комп’ютерна флеш-торгівля, викликають питання щодо алгоритмів. Що означає запустити ці програми? Які труднощі виникають під час використання цих машин і яких запобіжних заходів слід вжити?

Штучний інтелект повинен бути зрозумілим, ним можна керувати та обробляти таким чином, щоб кінцеві користувачі могли контролювати його. Початок цієї динаміки починається з того, щоб зробити ШІ зрозумілим.

Коли ШІ потрібно натиснути, щоб отримати більше відповідей

Не всі потреби ШІ однакові. Наприклад, у ситуаціях з низьким рівнем ставок, таких як розпізнавання зображень для некритичних потреб, розуміння того, як працюють програми, ймовірно, не є необхідним. Однак розуміння того, як цей кодекс працює та продовжує розвиватися, є важливим у ситуаціях із важливими наслідками, включаючи медичні рішення, рішення щодо найму чи рішення щодо безпеки автомобіля. Важливо знати, де потрібне втручання людини, а коли воно необхідне для входу та втручання. Крім того, оскільки освічені чоловіки здебільшого пишуть код штучного інтелекту, відповідно до (правильно) Інституту Алана Тюрінга, існує...

Без чорних скриньок: залучайте людей до штучного інтелекту

У 1950-х роках Алан Тюрінг запропонував експеримент під назвою «Гра в імітацію» (зараз називається тестом Тюрінга). У ній він постулював ситуацію, коли хтось - допитувач - перебуває в кімнаті, окремій від іншої кімнати, в якій є комп'ютер і друга особа. Мета тесту полягала в тому, щоб допитувач ставив запитання як людині, так і комп’ютеру; Метою комп’ютера було змусити слідчого подумати, що це людина. Тюрінг передбачив, що врешті-решт комп’ютери зможуть успішно імітувати людську поведінку та обманювати слідчих у великій частині часу.

Передбачення Тюрінга ще не збулося, і ще невідомо, чи зможуть комп’ютери коли-небудь справді пройти випробування. Однак це водночас і корисна лінза, щоб побачити динаміку того, як люди бачать потенційні можливості штучного інтелекту, і джерело іронії. Хоча ШІ має неймовірні можливості, він також має обмеження. Сьогодні зрозуміло, що ніхто не знає повної роботи штучного інтелекту, який ми створюємо, а відсутність «зрозумілості» та людей у ​​циклі спричиняє проблеми та втрачені можливості.

Що б не чекало майбутнє, зрозуміло одне: прийняття рішень людиною має бути включено в робочий цикл ШІ. Той факт, що це «чорна скринька», призводить до упереджених рішень на основі упереджених алгоритмів, що може призвести до серйозних наслідків.

Чому ШІ часто є чорною скринькою

Поширена думка, що люди знають більше та мають більше контролю над ШІ, ніж насправді. Люди вірять, що оскільки комп’ютерні спеціалісти написали та скомпілювали код, код можна пізнати та контролювати. Однак це не обов’язково так.

Штучний інтелект часто може бути чорною скринькою, де ми точно не знаємо, як були сконструйовані кінцеві результати або якими вони стануть. Це тому, що код приводиться в рух, а потім, майже як колесо, що котиться з пагорба власним імпульсом, продовжує рухатися вперед, поглинаючи інформацію, адаптуючись і зростаючи. Результати не завжди передбачувані або обов’язково позитивні.

Штучний інтелект, хоча й потужний, може бути неточним і непередбачуваним. Є багато випадків збоїв штучного інтелекту, включно з серйозними автомобільними аваріями, що є результатом нездатності штучного інтелекту інтерпретувати світ так, як ми очікуємо. Багато недоліків виникає через те, що код створено людиною, але розвиток коду є самокерованим і не закріпленим. Іншими словами, ми знаємо, з чого почався код, але не точно, як він розвивався чи прогресував. Є серйозні запитання щодо того, що відбувається в голові машини.

Запитання варто поставити. Такі інциденти, як автомобільні аварії, мають серйозні недоліки, але більш тонкі інциденти, такі як комп’ютерна флеш-торгівля, викликають питання щодо алгоритмів. Що означає запустити ці програми? Які труднощі виникають під час використання цих машин і яких запобіжних заходів слід вжити?

Штучний інтелект повинен бути зрозумілим, ним можна керувати та обробляти таким чином, щоб кінцеві користувачі могли контролювати його. Початок цієї динаміки починається з того, щоб зробити ШІ зрозумілим.

Коли ШІ потрібно натиснути, щоб отримати більше відповідей

Не всі потреби ШІ однакові. Наприклад, у ситуаціях з низьким рівнем ставок, таких як розпізнавання зображень для некритичних потреб, розуміння того, як працюють програми, ймовірно, не є необхідним. Однак розуміння того, як цей кодекс працює та продовжує розвиватися, є важливим у ситуаціях із важливими наслідками, включаючи медичні рішення, рішення щодо найму чи рішення щодо безпеки автомобіля. Важливо знати, де потрібне втручання людини, а коли воно необхідне для входу та втручання. Крім того, оскільки освічені чоловіки здебільшого пишуть код штучного інтелекту, відповідно до (правильно) Інституту Алана Тюрінга, існує...

What's Your Reaction?

like

dislike

love

funny

angry

sad

wow