¿Por qué los chatbots con IA dicen mentiras y actúan de forma extraña? Mírate en el espejo.

Uno de los pioneros de la inteligencia artificial afirma que las personas que los usan suelen engañar a los chatbots para que produzcan resultados extraños.

Cuando Microsoft agregó un chatbot a su motor de búsqueda Bing este mes, la gente notó que ofrecía todo tipo de información errónea sobre Gap, la vida nocturna mexicana y la cantante Billie Eilish.

Luego, cuando los periodistas y otros primeros probadores tuvieron largas conversaciones con la IA de Microsoft. bot, se deslizó en un comportamiento grosero y espeluznante.

Desde que el comportamiento del bot Bing se convirtió en una sensación mundial, la gente ha luchado por comprender la extrañeza de esta nueva creación. La mayoría de las veces, los científicos han dicho que los humanos merecen gran parte de la culpa.

Pero todavía hay cierto misterio sobre lo que puede hacer el nuevo chatbot y por qué lo haría. . Su complejidad hace que sea difícil de diseccionar e incluso más difícil de predecir, y los investigadores lo examinan a través de una lente filosófica y del código duro de la computación.

Como cualquier otro estudiante, un sistema de IA puede aprender mala información de malas fuentes. ¿Y este extraño comportamiento? Puede ser el reflejo distorsionado de un chatbot de las palabras y las intenciones de las personas que lo usan, dijo Terry Sejnowski, neurocientífico, psicólogo e informático que ayudó a sentar las bases intelectuales y técnicas de la inteligencia artificial moderna.

"Sucede cuando profundizas cada vez más en estos sistemas", dijo el Dr. Sejnowski, profesor del Instituto Salk de Estudios Biológicos y la Universidad de California en San Diego, que publicó un artículo de investigación. sobre este fenómeno este mes en la revista científica Neural Computation. "Sea lo que sea que busque, lo que desee, se lo proporcionarán".

ImageTerry Sejnowski, un profesor de la Universidad de California en San Diego, cree que el extraño comportamiento del chatbot puede ser un reflejo de las personas que lo usan. Credit... John Francis Peters para The New York Times
< p class="css- at9mc1 evys1bk0" >Google también presentó un nuevo chatbot, Bard, este mes, pero los científicos y los periodistas rápidamente se dieron cuenta de que estaba escribiendo tonterías sobre el telescopio espacial James Webb. OpenAI, una startup de San Francisco, inició el auge de los chatbots en noviembre al presentar ChatGPT, que no siempre dice la verdad.

Los nuevos chatbots están motivados por una tecnología que los científicos llaman un modelo de lenguaje grande, o L.L.M. Estos sistemas aprenden analizando cantidades masivas de texto digital extraído de Internet, que incluye volúmenes de material engañoso, sesgado y tóxico. El texto del que aprenden los chatbots también está un poco desactualizado, ya que tienen que pasar meses analizándolo antes de que el público pueda usarlos.

Como analiza este mar de buenas y mala información en Internet, un L.L.M. aprende a hacer una cosa en particular: adivinar la siguiente palabra en...

¿Por qué los chatbots con IA dicen mentiras y actúan de forma extraña? Mírate en el espejo.

Uno de los pioneros de la inteligencia artificial afirma que las personas que los usan suelen engañar a los chatbots para que produzcan resultados extraños.

Cuando Microsoft agregó un chatbot a su motor de búsqueda Bing este mes, la gente notó que ofrecía todo tipo de información errónea sobre Gap, la vida nocturna mexicana y la cantante Billie Eilish.

Luego, cuando los periodistas y otros primeros probadores tuvieron largas conversaciones con la IA de Microsoft. bot, se deslizó en un comportamiento grosero y espeluznante.

Desde que el comportamiento del bot Bing se convirtió en una sensación mundial, la gente ha luchado por comprender la extrañeza de esta nueva creación. La mayoría de las veces, los científicos han dicho que los humanos merecen gran parte de la culpa.

Pero todavía hay cierto misterio sobre lo que puede hacer el nuevo chatbot y por qué lo haría. . Su complejidad hace que sea difícil de diseccionar e incluso más difícil de predecir, y los investigadores lo examinan a través de una lente filosófica y del código duro de la computación.

Como cualquier otro estudiante, un sistema de IA puede aprender mala información de malas fuentes. ¿Y este extraño comportamiento? Puede ser el reflejo distorsionado de un chatbot de las palabras y las intenciones de las personas que lo usan, dijo Terry Sejnowski, neurocientífico, psicólogo e informático que ayudó a sentar las bases intelectuales y técnicas de la inteligencia artificial moderna.

"Sucede cuando profundizas cada vez más en estos sistemas", dijo el Dr. Sejnowski, profesor del Instituto Salk de Estudios Biológicos y la Universidad de California en San Diego, que publicó un artículo de investigación. sobre este fenómeno este mes en la revista científica Neural Computation. "Sea lo que sea que busque, lo que desee, se lo proporcionarán".

ImageTerry Sejnowski, un profesor de la Universidad de California en San Diego, cree que el extraño comportamiento del chatbot puede ser un reflejo de las personas que lo usan. Credit... John Francis Peters para The New York Times
< p class="css- at9mc1 evys1bk0" >Google también presentó un nuevo chatbot, Bard, este mes, pero los científicos y los periodistas rápidamente se dieron cuenta de que estaba escribiendo tonterías sobre el telescopio espacial James Webb. OpenAI, una startup de San Francisco, inició el auge de los chatbots en noviembre al presentar ChatGPT, que no siempre dice la verdad.

Los nuevos chatbots están motivados por una tecnología que los científicos llaman un modelo de lenguaje grande, o L.L.M. Estos sistemas aprenden analizando cantidades masivas de texto digital extraído de Internet, que incluye volúmenes de material engañoso, sesgado y tóxico. El texto del que aprenden los chatbots también está un poco desactualizado, ya que tienen que pasar meses analizándolo antes de que el público pueda usarlos.

Como analiza este mar de buenas y mala información en Internet, un L.L.M. aprende a hacer una cosa en particular: adivinar la siguiente palabra en...

What's Your Reaction?

like

dislike

love

funny

angry

sad

wow