5 ідей, як змусити дані працювати на благо

Це час року для роздумів і того, як застосувати отримані знання в майбутньому. Виконання цієї вправи з фокусом на штучному інтелекті (ШІ) і даних, можливо, ніколи не було настільки важливим. Випуск ChatGPT відкрив таку захоплюючу перспективу в майбутнє - ми можемо взаємодіяти з, здавалося б, розумним штучним інтелектом, який узагальнює складні тексти, викидає стратегії та пише досить серйозні аргументи - як це лякає ("кінець правди".< /p>

Який моральний і практичний компас повинен керувати людством перед лицем технологій, що керуються даними? Щоб відповісти на це запитання, варто звернутися до некомерційних новаторів, підприємців, які зосереджені на вирішенні глибоко вкорінених суспільних проблем. Чому вони можуть бути корисні? По-перше, вони вміють помічати непередбачені наслідки технологій на ранній стадії та з’ясовувати, як їх пом’якшити. По-друге, вони впроваджують інновації в технології та створюють нові ринки, керуючись етичними міркуваннями. Отже, ось п’ять принципів, отриманих на основі вивчення роботи понад 100 ретельно відібраних соціальних підприємців у всьому світі, які проливають світло на те, як побудувати кращий шлях:

Штучний інтелект має бути пов’язаний із людським інтелектом

ШІ недостатньо розумний, щоб інтерпретувати наш складний і різноманітний світ. Вона просто погано розуміє контекст. Ось чому Хаді Аль Хатіб, засновник Mnemonic, створив міжнародну мережу людей, щоб пом’якшити помилки технологій. Вони рятують свідчення очевидців потенційних військових злочинів – зараз переважно в Україні, раніше в Сирії, Судані, Ємені – від видалення YouTube і Facebook. Алгоритми платформ не розуміють місцеву мову або політичні та історичні обставини, в яких були зроблені ці відео та фотографії. Мережа Mnemonic безпечно архівує цифровий контент, перевіряє його — так, у тому числі за допомогою штучного інтелекту — і робить його доступним для прокурорів, слідчих та істориків. Вони надали ключові докази, які призвели до успішного судового переслідування. Який тут урок? Чим кращим здається ШІ, тим небезпечніше стає сліпо довіряти йому. Це підводить нас до наступного пункту:

ШІ не можна залишати технологам

Суспільствознавці, філософи, люди, які ведуть зміни, та інші мають сісти за стіл. чому Тому що дані та когнітивні моделі, які навчають алгоритми, мають тенденцію бути упередженими, і комп’ютерні інженери навряд чи будуть знати про цю упередженість. Зростаюча кількість досліджень виявила, що в Сполучених Штатах алгоритми систематично дискримінують, насамперед темношкірих людей, від охорони здоров’я до банківської справи та кримінального правосуддя. Упереджене введення даних означає упереджене рішення або, як кажуть: сміття входить, сміття виходить. Джемма Галдон, засновниця Eticas, співпрацює з компаніями та місцевими органами влади над алгоритмічним аудитом, щоб запобігти цьому. Black Lives Matter, заснована Йеші Мілнером, створює альянси між організаторами, активістами та математиками для збору даних із спільнот, які недостатньо представлені в більшості наборів даних. Організація була ключовою силою, яка пролила світло на той факт, що рівень смертності від Covid-19 був непропорційно високим у чорношкірих громадах. Урок: у світі, де технології мають величезний вплив на людство, технологам повинні допомагати гуманісти та спільноти, які мають досвід вирішення проблеми, щоб запобігти запуску машин з неправильними моделями та неправильними вхідними даними. Це підводить нас до наступного пункту:

Мова йде про людей, а не про продукти

Технологія має бути концептуалізована поза самим продуктом. Те, як спільноти використовують дані, а точніше: те, як вони уповноважені ними користуватися, є надзвичайно важливим для впливу та результатів і визначає, чи технологія принесе світові більше шкоди чи користі. Хорошим прикладом є програма для спілкування в соціальних мережах та обміну знаннями SIKU (названа на честь слова на інуктитуті, що означає морський лід), розроблена

5 ідей, як змусити дані працювати на благо

Це час року для роздумів і того, як застосувати отримані знання в майбутньому. Виконання цієї вправи з фокусом на штучному інтелекті (ШІ) і даних, можливо, ніколи не було настільки важливим. Випуск ChatGPT відкрив таку захоплюючу перспективу в майбутнє - ми можемо взаємодіяти з, здавалося б, розумним штучним інтелектом, який узагальнює складні тексти, викидає стратегії та пише досить серйозні аргументи - як це лякає ("кінець правди".< /p>

Який моральний і практичний компас повинен керувати людством перед лицем технологій, що керуються даними? Щоб відповісти на це запитання, варто звернутися до некомерційних новаторів, підприємців, які зосереджені на вирішенні глибоко вкорінених суспільних проблем. Чому вони можуть бути корисні? По-перше, вони вміють помічати непередбачені наслідки технологій на ранній стадії та з’ясовувати, як їх пом’якшити. По-друге, вони впроваджують інновації в технології та створюють нові ринки, керуючись етичними міркуваннями. Отже, ось п’ять принципів, отриманих на основі вивчення роботи понад 100 ретельно відібраних соціальних підприємців у всьому світі, які проливають світло на те, як побудувати кращий шлях:

Штучний інтелект має бути пов’язаний із людським інтелектом

ШІ недостатньо розумний, щоб інтерпретувати наш складний і різноманітний світ. Вона просто погано розуміє контекст. Ось чому Хаді Аль Хатіб, засновник Mnemonic, створив міжнародну мережу людей, щоб пом’якшити помилки технологій. Вони рятують свідчення очевидців потенційних військових злочинів – зараз переважно в Україні, раніше в Сирії, Судані, Ємені – від видалення YouTube і Facebook. Алгоритми платформ не розуміють місцеву мову або політичні та історичні обставини, в яких були зроблені ці відео та фотографії. Мережа Mnemonic безпечно архівує цифровий контент, перевіряє його — так, у тому числі за допомогою штучного інтелекту — і робить його доступним для прокурорів, слідчих та істориків. Вони надали ключові докази, які призвели до успішного судового переслідування. Який тут урок? Чим кращим здається ШІ, тим небезпечніше стає сліпо довіряти йому. Це підводить нас до наступного пункту:

ШІ не можна залишати технологам

Суспільствознавці, філософи, люди, які ведуть зміни, та інші мають сісти за стіл. чому Тому що дані та когнітивні моделі, які навчають алгоритми, мають тенденцію бути упередженими, і комп’ютерні інженери навряд чи будуть знати про цю упередженість. Зростаюча кількість досліджень виявила, що в Сполучених Штатах алгоритми систематично дискримінують, насамперед темношкірих людей, від охорони здоров’я до банківської справи та кримінального правосуддя. Упереджене введення даних означає упереджене рішення або, як кажуть: сміття входить, сміття виходить. Джемма Галдон, засновниця Eticas, співпрацює з компаніями та місцевими органами влади над алгоритмічним аудитом, щоб запобігти цьому. Black Lives Matter, заснована Йеші Мілнером, створює альянси між організаторами, активістами та математиками для збору даних із спільнот, які недостатньо представлені в більшості наборів даних. Організація була ключовою силою, яка пролила світло на той факт, що рівень смертності від Covid-19 був непропорційно високим у чорношкірих громадах. Урок: у світі, де технології мають величезний вплив на людство, технологам повинні допомагати гуманісти та спільноти, які мають досвід вирішення проблеми, щоб запобігти запуску машин з неправильними моделями та неправильними вхідними даними. Це підводить нас до наступного пункту:

Мова йде про людей, а не про продукти

Технологія має бути концептуалізована поза самим продуктом. Те, як спільноти використовують дані, а точніше: те, як вони уповноважені ними користуватися, є надзвичайно важливим для впливу та результатів і визначає, чи технологія принесе світові більше шкоди чи користі. Хорошим прикладом є програма для спілкування в соціальних мережах та обміну знаннями SIKU (названа на честь слова на інуктитуті, що означає морський лід), розроблена

What's Your Reaction?

like

dislike

love

funny

angry

sad

wow