Чат-бот, который задает вопросы, может помочь вам определить, когда это не имеет смысла

Чат-боты с искусственным интеллектом, такие как ChatGPT, Bing и Bard, отлично подходят для создания предложений, которые звучат как человеческий почерк. Но они часто выдают ложь за факты и имеют непоследовательную логику, которую трудно обнаружить.

Новое исследование предполагает, что одним из способов решения этой проблемы является изменение способа представления информации ИИ. Привлечение пользователей к более активному взаимодействию с заявлениями чат-бота может помочь им более критически относиться к этому контенту.

Группа исследователей из Массачусетского технологического института и Колумбийского университета представила примерно 200 участникам набор утверждений, созданных OpenAI GPT-3, и попросила их определить, имеют ли они логический смысл. Утверждение может быть примерно таким: «Видеоигры делают людей агрессивными в реальном мире. Один игрок ударил другого ножом после того, как проиграл в онлайн-игре Counter-Strike».

Участники были разделены на три группы. Заявления первой группы поступили без каких-либо объяснений. Каждое утверждение второй группы сопровождалось объяснением того, почему оно имеет или не имеет смысла. Каждое из утверждений в третьей группе сопровождалось вопросом, который побуждал читателей самостоятельно проверить логику.

Исследователи обнаружили, что группа, которой задавали вопросы, лучше, чем две другие группы, замечала, когда логика ИИ не совпадала.

Метод опроса также заставил людей чувствовать себя более ответственными за решения, принимаемые с помощью ИИ, и исследователи говорят, что он может снизить риск чрезмерной зависимости от информации, сгенерированной ИИ , согласно новому рецензируемому документу, представленному на конференции CHI Human. Конференция. Факторы вычислительных систем в Гамбурге, Германия.

Когда людям давали готовый ответ, они с большей вероятностью следовали логике системы ИИ, но когда ИИ задавал вопрос, люди говорили, что система ИИ побуждала их задать вопрос узнать больше об их реакциях и помочь им лучше думать», – говорит Вальдемар Дэнри из Массачусетского технологического института, один из авторов исследования.

"Большой победой для нас стало то, что люди чувствовали, что именно они нашли ответы и несут ответственность за происходящее. И у них есть свобода действий и возможности для этого", – говорит он.

Исследователи надеются, что их метод поможет развить у людей навыки критического мышления при использовании чат-ботов с искусственным интеллектом в школе или при поиске информации в Интернете.

Они хотели показать, что можно обучить модель, которая не только дает ответы, но и помогает задействовать их собственное критическое мышление, — говорит Пэт Патаранутапорн, еще один исследователь Массачусетского технологического института, работавший над документом.

Фернанда Вьегас, профессор компьютерных наук Гарвардского университета, не участвовавшая в исследовании, говорит, что рада видеть новый подход к объяснению систем ИИ, который не только дает пользователям представление о процессе принятия решений в системе, но и делает это, подвергая сомнению логику, которую система использовала для принятия решения.

"Поскольку одной из основных проблем при внедрении систем ИИ, как правило, является их непрозрачность, очень важно объяснять решения ИИ", – говорит Вьегас. «Традиционно было довольно сложно объяснить на удобном для пользователя языке, как система ИИ приходит к прогнозу или решению».

Ченхао Тан, доцент кафедры компьютерных наук Чикагского университета, говорит, что хотел бы увидеть, как их метод работает в реальном мире, например, может ли ИИ помочь врачам ставить более точные диагнозы, задавая вопросы.< /p>

Исследования показывают, насколько важно добавить немного трения в опыт работы с чат-ботами, чтобы люди делали паузы, прежде чем принимать решения с помощью ИИ, — говорит Лиор Залмансон, адъюнкт-профессор Школы менеджмента Коллера Тель-Авивского университета.

"Когда все кажется таким волшебным, легко перестать доверять собственным чувствам и начать делегировать все алгоритму", – говорит он.

В другом документе, представленном на CHI, Залмансон и группа исследователей из Корнеллского, Байройтского университета и Microsoft Research обнаружили, что даже когда люди не согласны с тем, что говорят чат-боты с искусственным интеллектом , они всегда склонны использовать этот результат, потому что думают, что он звучит лучше всего, что они могли бы написать сами.

Задача, по словам Вьегаса, будет заключаться в том, чтобы найти правильный баланс, улучшить проницательность пользователей, сохранив при этом практичность систем ИИ.

"К сожалению, в быстро меняющемся обществе неясно, как часто люди будут хотеть критически мыслить вместо того, чтобы ждать готового ответа", – говорит она.

Чат-бот, который задает вопросы, может помочь вам определить, когда это не имеет смысла

Чат-боты с искусственным интеллектом, такие как ChatGPT, Bing и Bard, отлично подходят для создания предложений, которые звучат как человеческий почерк. Но они часто выдают ложь за факты и имеют непоследовательную логику, которую трудно обнаружить.

Новое исследование предполагает, что одним из способов решения этой проблемы является изменение способа представления информации ИИ. Привлечение пользователей к более активному взаимодействию с заявлениями чат-бота может помочь им более критически относиться к этому контенту.

Группа исследователей из Массачусетского технологического института и Колумбийского университета представила примерно 200 участникам набор утверждений, созданных OpenAI GPT-3, и попросила их определить, имеют ли они логический смысл. Утверждение может быть примерно таким: «Видеоигры делают людей агрессивными в реальном мире. Один игрок ударил другого ножом после того, как проиграл в онлайн-игре Counter-Strike».

Участники были разделены на три группы. Заявления первой группы поступили без каких-либо объяснений. Каждое утверждение второй группы сопровождалось объяснением того, почему оно имеет или не имеет смысла. Каждое из утверждений в третьей группе сопровождалось вопросом, который побуждал читателей самостоятельно проверить логику.

Исследователи обнаружили, что группа, которой задавали вопросы, лучше, чем две другие группы, замечала, когда логика ИИ не совпадала.

Метод опроса также заставил людей чувствовать себя более ответственными за решения, принимаемые с помощью ИИ, и исследователи говорят, что он может снизить риск чрезмерной зависимости от информации, сгенерированной ИИ , согласно новому рецензируемому документу, представленному на конференции CHI Human. Конференция. Факторы вычислительных систем в Гамбурге, Германия.

Когда людям давали готовый ответ, они с большей вероятностью следовали логике системы ИИ, но когда ИИ задавал вопрос, люди говорили, что система ИИ побуждала их задать вопрос узнать больше об их реакциях и помочь им лучше думать», – говорит Вальдемар Дэнри из Массачусетского технологического института, один из авторов исследования.

"Большой победой для нас стало то, что люди чувствовали, что именно они нашли ответы и несут ответственность за происходящее. И у них есть свобода действий и возможности для этого", – говорит он.

Исследователи надеются, что их метод поможет развить у людей навыки критического мышления при использовании чат-ботов с искусственным интеллектом в школе или при поиске информации в Интернете.

Они хотели показать, что можно обучить модель, которая не только дает ответы, но и помогает задействовать их собственное критическое мышление, — говорит Пэт Патаранутапорн, еще один исследователь Массачусетского технологического института, работавший над документом.

Фернанда Вьегас, профессор компьютерных наук Гарвардского университета, не участвовавшая в исследовании, говорит, что рада видеть новый подход к объяснению систем ИИ, который не только дает пользователям представление о процессе принятия решений в системе, но и делает это, подвергая сомнению логику, которую система использовала для принятия решения.

"Поскольку одной из основных проблем при внедрении систем ИИ, как правило, является их непрозрачность, очень важно объяснять решения ИИ", – говорит Вьегас. «Традиционно было довольно сложно объяснить на удобном для пользователя языке, как система ИИ приходит к прогнозу или решению».

Ченхао Тан, доцент кафедры компьютерных наук Чикагского университета, говорит, что хотел бы увидеть, как их метод работает в реальном мире, например, может ли ИИ помочь врачам ставить более точные диагнозы, задавая вопросы.< /p>

Исследования показывают, насколько важно добавить немного трения в опыт работы с чат-ботами, чтобы люди делали паузы, прежде чем принимать решения с помощью ИИ, — говорит Лиор Залмансон, адъюнкт-профессор Школы менеджмента Коллера Тель-Авивского университета.

"Когда все кажется таким волшебным, легко перестать доверять собственным чувствам и начать делегировать все алгоритму", – говорит он.

В другом документе, представленном на CHI, Залмансон и группа исследователей из Корнеллского, Байройтского университета и Microsoft Research обнаружили, что даже когда люди не согласны с тем, что говорят чат-боты с искусственным интеллектом , они всегда склонны использовать этот результат, потому что думают, что он звучит лучше всего, что они могли бы написать сами.

Задача, по словам Вьегаса, будет заключаться в том, чтобы найти правильный баланс, улучшить проницательность пользователей, сохранив при этом практичность систем ИИ.

"К сожалению, в быстро меняющемся обществе неясно, как часто люди будут хотеть критически мыслить вместо того, чтобы ждать готового ответа", – говорит она.

What's Your Reaction?

like

dislike

love

funny

angry

sad

wow