Cómo gestionar el riesgo a medida que la IA se propaga por su organización

Regístrese ahora para obtener su pase virtual gratuito para la Cumbre Low-Code/No-Code del 9 de noviembre. Escuche a los líderes de Service Now, Credit Karma, Stitch Fix, Appian y más. Obtenga más información.

A medida que la IA se extiende por toda la empresa, las organizaciones se esfuerzan por equilibrar los beneficios y los riesgos. La IA ya está integrada en una variedad de herramientas, desde la gestión de la infraestructura de TI hasta el software DevOps y las suites de CRM, pero la mayoría de estas herramientas se han adoptado sin una estrategia de mitigación de riesgos relacionada con la IA.

Por supuesto, es importante recordar que la lista de beneficios potenciales de la IA es tan larga como los riesgos, razón por la cual muchas organizaciones escatiman en las evaluaciones de riesgos en primer lugar.

Muchas organizaciones ya han logrado avances importantes que no habrían sido posibles sin la IA. Por ejemplo, la IA se está implementando en la industria de la salud para todo, desde la cirugía asistida por robot hasta la reducción de errores en la dosificación de medicamentos y la optimización de los flujos de trabajo administrativos. GE Aviation confía en la IA para crear modelos digitales que predicen mejor cuándo fallarán las piezas y, por supuesto, hay muchas formas de usar la IA para ahorrar dinero, como la 'IA conversacional que toma los pedidos de los restaurantes al volante'.

Ese es el lado bueno de la IA.

Evento

Vértice de código bajo/sin código

Únase a los principales líderes de hoy en Low-Code/No-Code Summit virtualmente el 9 de noviembre. Regístrese para obtener su pase gratis hoy.

registrarse aquí

Ahora veamos lo malo y lo feo.

Los riesgos de la IA son tan variados como los muchos casos de uso que promocionan sus defensores, pero tres áreas han demostrado ser particularmente preocupantes: sesgo, seguridad y guerra. Veamos cada uno de estos temas por separado.

Parcialidad

Si bien los departamentos de recursos humanos originalmente creían que la IA podía usarse para eliminar el sesgo en el reclutamiento, sucedió lo contrario. Los modelos construidos con sesgos implícitos integrados en el algoritmo terminan siendo activamente sesgados contra las mujeres y las minorías.

Por ejemplo, Amazon tuvo que abandonar su analizador de currículums automatizado impulsado por IA porque excluía a las candidatas. De manera similar, cuando Microsoft usó tweets para entrenar a un chatbot para interactuar con los usuarios de Twitter, crearon un monstruo. Como lo expresó un titular de CBS News: “Microsoft cierra el chatbot de IA después de que se vuelve nazi”.

Estos problemas pueden parecer inevitables en retrospectiva, pero si los líderes del mercado como Microsoft y Google pueden cometer estos errores, su negocio también puede hacerlo. Con Amazon, la IA había sido entrenada en CV provenientes principalmente de candidatos masculinos. Con el chatbot de Microsoft, lo único positivo que se puede decir de esta experiencia es que al menos no usaron 8chan para entrenar la IA. Si pasas cinco minutos nadando en la toxicidad de Twitter, te darás cuenta de la terrible idea que fue usar este conjunto de datos para entrenar cualquier cosa.

Temas de seguridad

Uber, Toyota, GM, Google y Tesla, entre otros, han estado trabajando para hacer realidad las flotas sin conductor. Desafortunadamente, cuanto más experimentan los investigadores con autos sin conductor, más se alejan de la visión completamente autónoma.

En 2015, ocurrió la primera muerte causada por un automóvil autónomo en Florida. Según la Administración Nacional de Seguridad del Tráfico en las Carreteras, un Tesla en modo de piloto automático no se detuvo ante un camión con remolque que giraba a la izquierda en una intersección. El Tesla se estrelló contra la gran plataforma, p...

Cómo gestionar el riesgo a medida que la IA se propaga por su organización

Regístrese ahora para obtener su pase virtual gratuito para la Cumbre Low-Code/No-Code del 9 de noviembre. Escuche a los líderes de Service Now, Credit Karma, Stitch Fix, Appian y más. Obtenga más información.

A medida que la IA se extiende por toda la empresa, las organizaciones se esfuerzan por equilibrar los beneficios y los riesgos. La IA ya está integrada en una variedad de herramientas, desde la gestión de la infraestructura de TI hasta el software DevOps y las suites de CRM, pero la mayoría de estas herramientas se han adoptado sin una estrategia de mitigación de riesgos relacionada con la IA.

Por supuesto, es importante recordar que la lista de beneficios potenciales de la IA es tan larga como los riesgos, razón por la cual muchas organizaciones escatiman en las evaluaciones de riesgos en primer lugar.

Muchas organizaciones ya han logrado avances importantes que no habrían sido posibles sin la IA. Por ejemplo, la IA se está implementando en la industria de la salud para todo, desde la cirugía asistida por robot hasta la reducción de errores en la dosificación de medicamentos y la optimización de los flujos de trabajo administrativos. GE Aviation confía en la IA para crear modelos digitales que predicen mejor cuándo fallarán las piezas y, por supuesto, hay muchas formas de usar la IA para ahorrar dinero, como la 'IA conversacional que toma los pedidos de los restaurantes al volante'.

Ese es el lado bueno de la IA.

Evento

Vértice de código bajo/sin código

Únase a los principales líderes de hoy en Low-Code/No-Code Summit virtualmente el 9 de noviembre. Regístrese para obtener su pase gratis hoy.

registrarse aquí

Ahora veamos lo malo y lo feo.

Los riesgos de la IA son tan variados como los muchos casos de uso que promocionan sus defensores, pero tres áreas han demostrado ser particularmente preocupantes: sesgo, seguridad y guerra. Veamos cada uno de estos temas por separado.

Parcialidad

Si bien los departamentos de recursos humanos originalmente creían que la IA podía usarse para eliminar el sesgo en el reclutamiento, sucedió lo contrario. Los modelos construidos con sesgos implícitos integrados en el algoritmo terminan siendo activamente sesgados contra las mujeres y las minorías.

Por ejemplo, Amazon tuvo que abandonar su analizador de currículums automatizado impulsado por IA porque excluía a las candidatas. De manera similar, cuando Microsoft usó tweets para entrenar a un chatbot para interactuar con los usuarios de Twitter, crearon un monstruo. Como lo expresó un titular de CBS News: “Microsoft cierra el chatbot de IA después de que se vuelve nazi”.

Estos problemas pueden parecer inevitables en retrospectiva, pero si los líderes del mercado como Microsoft y Google pueden cometer estos errores, su negocio también puede hacerlo. Con Amazon, la IA había sido entrenada en CV provenientes principalmente de candidatos masculinos. Con el chatbot de Microsoft, lo único positivo que se puede decir de esta experiencia es que al menos no usaron 8chan para entrenar la IA. Si pasas cinco minutos nadando en la toxicidad de Twitter, te darás cuenta de la terrible idea que fue usar este conjunto de datos para entrenar cualquier cosa.

Temas de seguridad

Uber, Toyota, GM, Google y Tesla, entre otros, han estado trabajando para hacer realidad las flotas sin conductor. Desafortunadamente, cuanto más experimentan los investigadores con autos sin conductor, más se alejan de la visión completamente autónoma.

En 2015, ocurrió la primera muerte causada por un automóvil autónomo en Florida. Según la Administración Nacional de Seguridad del Tráfico en las Carreteras, un Tesla en modo de piloto automático no se detuvo ante un camión con remolque que giraba a la izquierda en una intersección. El Tesla se estrelló contra la gran plataforma, p...

What's Your Reaction?

like

dislike

love

funny

angry

sad

wow