Microsoft ya está revirtiendo algunos de los límites que ha puesto en las herramientas de chat de IA de Bing

La compañía dice que restaurará gatos largos de una manera "responsable".

Microsoft se apresuró a limitar los chats de IA de Bing para evitar respuestas molestas, pero eso cambió de rumbo unos días después. La compañía ahora dice que restaurará los chats más largos y está comenzando a expandir los chats a seis rondas por sesión (de cinco) y 60 chats por día (de 50). El límite diario pronto aumentará a 100 chats, según Microsoft, y las búsquedas regulares ya no contarán para ese total. Dicho esto, no espere causar mucho daño cuando vuelvan las conversaciones largas: Microsoft quiere recuperarlas "responsablemente".

El gigante tecnológico también está abordando las preocupaciones de que la IA de Bing podría ser demasiado prolija con las respuestas. Una próxima prueba le permitirá elegir un tono "preciso" (es decir, respuestas más cortas y precisas), "creativo" (más largo) o "equilibrado". Si solo está interesado en los hechos, no tendrá que leer tanto texto para obtenerlos.

Es posible que haya habido señales de problemas mucho antes. Como señala Windows Central, el investigador Dr. Gary Marcus y el vicepresidente de Nomic, Ben Schmidt, descubrieron que las pruebas públicas del chatbot Bing (nombre en clave "Sidney") en India hace cuatro meses produjeron resultados igualmente extraños en sesiones largas. Le pedimos un comentario a Microsoft, pero dice en su última publicación de blog que la vista previa actual está destinada a detectar "casos de uso atípicos" que no aparecen con las pruebas internas.

Microsoft ha dicho anteriormente que no anticipó completamente a las personas que usarían los chats más largos de Bing AI como entretenimiento. Los límites más flexibles son un intento de equilibrar la "retroalimentación" a favor de estos chats, como dice la compañía, con medidas de seguridad que evitan que el bot vaya en direcciones extrañas.

Todos los productos recomendados por Engadget son seleccionados por nuestro equipo editorial, independiente de nuestra empresa matriz. Algunas de nuestras historias incluyen enlaces de afiliados. Si compra algo a través de uno de estos enlaces, podemos ganar una comisión de afiliado. Todos los precios son correctos en el momento de la publicación.

Microsoft ya está revirtiendo algunos de los límites que ha puesto en las herramientas de chat de IA de Bing

La compañía dice que restaurará gatos largos de una manera "responsable".

Microsoft se apresuró a limitar los chats de IA de Bing para evitar respuestas molestas, pero eso cambió de rumbo unos días después. La compañía ahora dice que restaurará los chats más largos y está comenzando a expandir los chats a seis rondas por sesión (de cinco) y 60 chats por día (de 50). El límite diario pronto aumentará a 100 chats, según Microsoft, y las búsquedas regulares ya no contarán para ese total. Dicho esto, no espere causar mucho daño cuando vuelvan las conversaciones largas: Microsoft quiere recuperarlas "responsablemente".

El gigante tecnológico también está abordando las preocupaciones de que la IA de Bing podría ser demasiado prolija con las respuestas. Una próxima prueba le permitirá elegir un tono "preciso" (es decir, respuestas más cortas y precisas), "creativo" (más largo) o "equilibrado". Si solo está interesado en los hechos, no tendrá que leer tanto texto para obtenerlos.

Es posible que haya habido señales de problemas mucho antes. Como señala Windows Central, el investigador Dr. Gary Marcus y el vicepresidente de Nomic, Ben Schmidt, descubrieron que las pruebas públicas del chatbot Bing (nombre en clave "Sidney") en India hace cuatro meses produjeron resultados igualmente extraños en sesiones largas. Le pedimos un comentario a Microsoft, pero dice en su última publicación de blog que la vista previa actual está destinada a detectar "casos de uso atípicos" que no aparecen con las pruebas internas.

Microsoft ha dicho anteriormente que no anticipó completamente a las personas que usarían los chats más largos de Bing AI como entretenimiento. Los límites más flexibles son un intento de equilibrar la "retroalimentación" a favor de estos chats, como dice la compañía, con medidas de seguridad que evitan que el bot vaya en direcciones extrañas.

Todos los productos recomendados por Engadget son seleccionados por nuestro equipo editorial, independiente de nuestra empresa matriz. Algunas de nuestras historias incluyen enlaces de afiliados. Si compra algo a través de uno de estos enlaces, podemos ganar una comisión de afiliado. Todos los precios son correctos en el momento de la publicación.

What's Your Reaction?

like

dislike

love

funny

angry

sad

wow