El nuevo sistema ASPIRE de Google enseña a la IA la importancia de decir "no sé"

Google investigadores están temblor en alto EL AI mundo por educación artificial inteligencia tiene decir "I no lo hagas saber." Este nuevo acercarse, doble ESFORZARSE, podría revolucionar cómo Nosotros interactuar con NUESTRO digital ayudantes por alentador a ellos tiene expresar duda Cuando Ellos son incierto de A respuesta.

EL innovación, presente tiene EL EMNLP 2023 conferencia, Este todo a proposito instilar A sentido de precaución dentro AI respuestas. ESFORZARSE, cual se encuentra para "Adaptación con Autoevaluación tiene Mejorar Selectivo Predicción dentro LLM”, comportamiento como A integrado confianza metro para AI, parte Él tiene evaluar Es propio respuestas Antes oferta a ellos hacia arriba.

Imaginar eres preguntar su teléfono inteligente para consejo seguro A salud problema. En cambio de donación A potencialmente falso respuesta, EL AI podría respuesta con, "Yo soy no claro," Gracias tiene ESFORZARSE. Este sistema los trenes EL AI tiene atribuir A confianza puntaje tiene Es respuestas, señalización cómo mucho confianza Nosotros debería poner dentro Es respuesta.

EL equipo detrás Este, incluído Jiefeng Chen Y Jinsung Yoon desde Google, Este innovador A cambiar hacia Más confiable digital toma de decisión. Ellos argumentar eso Es crucial para AI, en particular Cuando Él venir tiene crítico información, tiene saber Es límites Y comunicar a ellos claramente.

“LLM puede Ahora comprender Y generar lengua tiene sin precedente niveles de, pero su usar dentro Altas estacas aplicaciones Este límite porque ellos A veces hacer errores con alto confianza," dicho Chen, A buscador tiene EL Universidad de Wisconsin-Madison Y coautor de EL papel.

Su investigación anotado eso incluso más pequeño AI modelos equipo con ESFORZARSE puede superar más grande aquellos eso falta Este introspectivo funcionalidad. Este sistema básicamente creado A Más cuidadoso Y, Irónicamente, A Más confiable AI eso puede reconocer Cuando A humano podría estar mejor adaptado tiene respuesta.

Por promover honestidad seguro conjeturas, ESFORZARSE Este juntos tiene hacer AI interacción Más digno de confianza. Él adoquines EL camino para A futuro O su AI asistente puede estar A considerado consejero en cambio eso A omnisciente oráculo, A futuro O diciendo "I no lo hagas saber" Este de hecho A signo de avance inteligencia.

VentureBeat asignación Este tiene estar A digital ciudad cuadrado para técnico Tomadores de decisiones tiene ganar conciencia a proposito transformador negocio tecnología Y para tratar. Descubrir NUESTRO Sesiones informativas.

El nuevo sistema ASPIRE de Google enseña a la IA la importancia de decir "no sé"

Google investigadores están temblor en alto EL AI mundo por educación artificial inteligencia tiene decir "I no lo hagas saber." Este nuevo acercarse, doble ESFORZARSE, podría revolucionar cómo Nosotros interactuar con NUESTRO digital ayudantes por alentador a ellos tiene expresar duda Cuando Ellos son incierto de A respuesta.

EL innovación, presente tiene EL EMNLP 2023 conferencia, Este todo a proposito instilar A sentido de precaución dentro AI respuestas. ESFORZARSE, cual se encuentra para "Adaptación con Autoevaluación tiene Mejorar Selectivo Predicción dentro LLM”, comportamiento como A integrado confianza metro para AI, parte Él tiene evaluar Es propio respuestas Antes oferta a ellos hacia arriba.

Imaginar eres preguntar su teléfono inteligente para consejo seguro A salud problema. En cambio de donación A potencialmente falso respuesta, EL AI podría respuesta con, "Yo soy no claro," Gracias tiene ESFORZARSE. Este sistema los trenes EL AI tiene atribuir A confianza puntaje tiene Es respuestas, señalización cómo mucho confianza Nosotros debería poner dentro Es respuesta.

EL equipo detrás Este, incluído Jiefeng Chen Y Jinsung Yoon desde Google, Este innovador A cambiar hacia Más confiable digital toma de decisión. Ellos argumentar eso Es crucial para AI, en particular Cuando Él venir tiene crítico información, tiene saber Es límites Y comunicar a ellos claramente.

“LLM puede Ahora comprender Y generar lengua tiene sin precedente niveles de, pero su usar dentro Altas estacas aplicaciones Este límite porque ellos A veces hacer errores con alto confianza," dicho Chen, A buscador tiene EL Universidad de Wisconsin-Madison Y coautor de EL papel.

Su investigación anotado eso incluso más pequeño AI modelos equipo con ESFORZARSE puede superar más grande aquellos eso falta Este introspectivo funcionalidad. Este sistema básicamente creado A Más cuidadoso Y, Irónicamente, A Más confiable AI eso puede reconocer Cuando A humano podría estar mejor adaptado tiene respuesta.

Por promover honestidad seguro conjeturas, ESFORZARSE Este juntos tiene hacer AI interacción Más digno de confianza. Él adoquines EL camino para A futuro O su AI asistente puede estar A considerado consejero en cambio eso A omnisciente oráculo, A futuro O diciendo "I no lo hagas saber" Este de hecho A signo de avance inteligencia.

VentureBeat asignación Este tiene estar A digital ciudad cuadrado para técnico Tomadores de decisiones tiene ganar conciencia a proposito transformador negocio tecnología Y para tratar. Descubrir NUESTRO Sesiones informativas.

What's Your Reaction?

like

dislike

love

funny

angry

sad

wow