Evitar los peligros de la IA generativa

La IA generativa está atrayendo mucho interés del público y de los inversores. Pero pasan por alto un riesgo fundamental.

Cuando se lanzó ChatGPT en noviembre, que permitía a los usuarios enviar preguntas a un chatbot y obtener respuestas generadas por IA, Internet se volvió loca. Los líderes de opinión proclamaron que la nueva tecnología podría transformar los sectores de los medios en el cuidado de la salud (recientemente aprobó las tres partes del examen de licencia médica en los Estados Unidos).

Microsoft ya ha invertido miles de millones de dólares en su asociación con el creador OpenAI, con el objetivo de implementar la tecnología a nivel mundial, incluida la integración con el motor de búsqueda Bing. Sin duda, los ejecutivos esperan que esto ayude al gigante tecnológico, que se ha quedado atrás en las búsquedas, a ponerse al nivel del líder del mercado, Google.

ChatGPT es solo un tipo de IA generativa. La IA generativa es un tipo de inteligencia artificial que, cuando recibe un conjunto de datos de entrenamiento, es capaz de generar nuevos datos a partir de ellos, como imágenes, sonidos o, en el caso del chatbot, texto. Los modelos de IA generativa pueden producir resultados mucho más rápido que los humanos, lo que genera un gran valor. Imagine, por ejemplo, un entorno de producción de películas en el que la IA genera nuevos paisajes y personajes elaborados sin involucrar al ojo humano.

Algunos límites de la IA generativa

Sin embargo, la IA generativa no es la respuesta a todas las situaciones ni a todas las industrias. Cuando se trata de juegos, videos, imágenes e incluso poemas, puede producir resultados interesantes y útiles. Pero cuando se trata de aplicaciones críticas, situaciones en las que los errores son muy costosos o en las que no queremos sesgos, esto puede ser muy peligroso.

Tomemos, por ejemplo, un centro de atención médica en un área remota con recursos limitados, donde la IA se utiliza para mejorar el diagnóstico y la planificación del tratamiento. O una escuela donde un solo maestro puede brindar capacitación personalizada a diferentes estudiantes en función de sus niveles de habilidad únicos a través de la planificación de lecciones dirigida por IA.

Estas son situaciones en las que, a primera vista, la IA generativa podría parecer que crea valor, pero en realidad conduciría a una serie de complicaciones. ¿Cómo sabemos que los diagnósticos son correctos? ¿Qué pasa con los sesgos que pueden estar incrustados en los materiales didácticos?

Los modelos de IA generativa se consideran modelos de "caja negra". Es imposible entender cómo llegan a sus resultados, ya que no se proporciona un razonamiento subyacente. Incluso los investigadores profesionales a menudo luchan por comprender el funcionamiento interno de estos modelos. Es notoriamente difícil, por ejemplo, determinar qué hace que una IA identifique correctamente la imagen de una cerilla.

Como usuario ocasional de ChatGPT u otro modelo generativo, es posible que tenga aún menos idea sobre la composición de los datos de entrenamiento inicial. Pregunte a ChatGPT de dónde provienen sus datos y simplemente le dirá que se entrenó en un "conjunto diverso de datos de Internet".

Los peligros de la salida generada por IA

Esto puede conducir a situaciones peligrosas. Debido a que no puede comprender las relaciones internas y las representaciones que el modelo ha aprendido de los datos o ver qué características de los datos son más importantes para el modelo, no puede comprender por qué un modelo hace ciertas predicciones. Esto hace que sea difícil detectar, o corregir, errores o sesgos en el modelo.

Los internautas ya han registrado instancias en las que ChatGPT produjo respuestas erróneas o cuestionables, que van desde fallos fallidos hasta generar código Python que determina quién debe ser torturado.

Y esos son solo los casos en los que era obvio que la respuesta era incorrecta. Según algunas estimaciones, el 20 % de las respuestas de ChatGPT son

Evitar los peligros de la IA generativa

La IA generativa está atrayendo mucho interés del público y de los inversores. Pero pasan por alto un riesgo fundamental.

Cuando se lanzó ChatGPT en noviembre, que permitía a los usuarios enviar preguntas a un chatbot y obtener respuestas generadas por IA, Internet se volvió loca. Los líderes de opinión proclamaron que la nueva tecnología podría transformar los sectores de los medios en el cuidado de la salud (recientemente aprobó las tres partes del examen de licencia médica en los Estados Unidos).

Microsoft ya ha invertido miles de millones de dólares en su asociación con el creador OpenAI, con el objetivo de implementar la tecnología a nivel mundial, incluida la integración con el motor de búsqueda Bing. Sin duda, los ejecutivos esperan que esto ayude al gigante tecnológico, que se ha quedado atrás en las búsquedas, a ponerse al nivel del líder del mercado, Google.

ChatGPT es solo un tipo de IA generativa. La IA generativa es un tipo de inteligencia artificial que, cuando recibe un conjunto de datos de entrenamiento, es capaz de generar nuevos datos a partir de ellos, como imágenes, sonidos o, en el caso del chatbot, texto. Los modelos de IA generativa pueden producir resultados mucho más rápido que los humanos, lo que genera un gran valor. Imagine, por ejemplo, un entorno de producción de películas en el que la IA genera nuevos paisajes y personajes elaborados sin involucrar al ojo humano.

Algunos límites de la IA generativa

Sin embargo, la IA generativa no es la respuesta a todas las situaciones ni a todas las industrias. Cuando se trata de juegos, videos, imágenes e incluso poemas, puede producir resultados interesantes y útiles. Pero cuando se trata de aplicaciones críticas, situaciones en las que los errores son muy costosos o en las que no queremos sesgos, esto puede ser muy peligroso.

Tomemos, por ejemplo, un centro de atención médica en un área remota con recursos limitados, donde la IA se utiliza para mejorar el diagnóstico y la planificación del tratamiento. O una escuela donde un solo maestro puede brindar capacitación personalizada a diferentes estudiantes en función de sus niveles de habilidad únicos a través de la planificación de lecciones dirigida por IA.

Estas son situaciones en las que, a primera vista, la IA generativa podría parecer que crea valor, pero en realidad conduciría a una serie de complicaciones. ¿Cómo sabemos que los diagnósticos son correctos? ¿Qué pasa con los sesgos que pueden estar incrustados en los materiales didácticos?

Los modelos de IA generativa se consideran modelos de "caja negra". Es imposible entender cómo llegan a sus resultados, ya que no se proporciona un razonamiento subyacente. Incluso los investigadores profesionales a menudo luchan por comprender el funcionamiento interno de estos modelos. Es notoriamente difícil, por ejemplo, determinar qué hace que una IA identifique correctamente la imagen de una cerilla.

Como usuario ocasional de ChatGPT u otro modelo generativo, es posible que tenga aún menos idea sobre la composición de los datos de entrenamiento inicial. Pregunte a ChatGPT de dónde provienen sus datos y simplemente le dirá que se entrenó en un "conjunto diverso de datos de Internet".

Los peligros de la salida generada por IA

Esto puede conducir a situaciones peligrosas. Debido a que no puede comprender las relaciones internas y las representaciones que el modelo ha aprendido de los datos o ver qué características de los datos son más importantes para el modelo, no puede comprender por qué un modelo hace ciertas predicciones. Esto hace que sea difícil detectar, o corregir, errores o sesgos en el modelo.

Los internautas ya han registrado instancias en las que ChatGPT produjo respuestas erróneas o cuestionables, que van desde fallos fallidos hasta generar código Python que determina quién debe ser torturado.

Y esos son solo los casos en los que era obvio que la respuesta era incorrecta. Según algunas estimaciones, el 20 % de las respuestas de ChatGPT son

What's Your Reaction?

like

dislike

love

funny

angry

sad

wow