Es posible que las próximas regulaciones de IA no nos protejan de la IA peligrosa

Consulte todas las sesiones bajo demanda de Smart Security Summit aquí.

La mayoría de los sistemas de IA actuales son redes neuronales. Las redes neuronales son algoritmos que imitan un cerebro biológico para procesar grandes cantidades de datos. Se sabe que son rápidos, pero son impenetrables. Las redes neuronales requieren grandes cantidades de datos para aprender a tomar decisiones; sin embargo, las razones de sus decisiones están ocultas en innumerables capas de neuronas artificiales, todas sintonizadas por separado con varios parámetros.

En otras palabras, las redes neuronales son "cajas negras". Y los desarrolladores de una red neuronal no solo no controlan lo que hace la IA, ni siquiera saben por qué hace lo que hace.

Es una realidad horrible. Pero está empeorando.

A pesar del riesgo inherente a la tecnología, las redes neuronales están comenzando a administrar infraestructura clave para funciones comerciales y gubernamentales críticas. A medida que proliferan los sistemas de IA, la lista de ejemplos de redes neuronales peligrosas crece cada día. Por ejemplo:

Evento

Cumbre de seguridad inteligente bajo demanda

Obtenga más información sobre el papel esencial de la IA y el ML en la ciberseguridad y los estudios de casos específicos de la industria. Mira las sesiones a pedido hoy.

mira aquí Ya, al menos una persona ha muerto en un vehículo impulsado por IA. La IA Copilot de Microsoft aparentemente memorizó el código de transposición de matriz escasa del profesor de Texas A&M, Tim Davis. El algoritmo de Apple Card asignó a Steve Wozniak un límite de crédito 20 veces mayor que el de su esposa, a pesar de que los dos dividieron las finanzas. La Policía Metropolitana de Londres utilizó una red neuronal para buscar pornografía. Desafortunadamente, la red neuronal continuó identificando las dunas de arena como senos desnudos. Se suponía que el chatbot de la red neuronal de Microsoft, Tay, imitaría el comportamiento de una adolescente curiosa en Twitter. Desafortunadamente, Tay se convirtió en un negador racista y misógino en menos de 24 horas. Google Photos utilizó redes neuronales para identificar personas, objetos, animales, alimentos y fondos. Luego, inexplicablemente, identificó fotos de personas negras como gorilas.

Estos resultados van desde mortales hasta cómicos y extremadamente ofensivos. Y mientras se utilicen redes neuronales, corremos el riesgo de sufrir muchos daños. Las empresas y los consumidores temen con razón que mientras la IA permanezca opaca, seguirá siendo peligrosa.

Se acerca una respuesta regulatoria

En respuesta a estas preocupaciones, la UE ha propuesto una

Es posible que las próximas regulaciones de IA no nos protejan de la IA peligrosa

Consulte todas las sesiones bajo demanda de Smart Security Summit aquí.

La mayoría de los sistemas de IA actuales son redes neuronales. Las redes neuronales son algoritmos que imitan un cerebro biológico para procesar grandes cantidades de datos. Se sabe que son rápidos, pero son impenetrables. Las redes neuronales requieren grandes cantidades de datos para aprender a tomar decisiones; sin embargo, las razones de sus decisiones están ocultas en innumerables capas de neuronas artificiales, todas sintonizadas por separado con varios parámetros.

En otras palabras, las redes neuronales son "cajas negras". Y los desarrolladores de una red neuronal no solo no controlan lo que hace la IA, ni siquiera saben por qué hace lo que hace.

Es una realidad horrible. Pero está empeorando.

A pesar del riesgo inherente a la tecnología, las redes neuronales están comenzando a administrar infraestructura clave para funciones comerciales y gubernamentales críticas. A medida que proliferan los sistemas de IA, la lista de ejemplos de redes neuronales peligrosas crece cada día. Por ejemplo:

Evento

Cumbre de seguridad inteligente bajo demanda

Obtenga más información sobre el papel esencial de la IA y el ML en la ciberseguridad y los estudios de casos específicos de la industria. Mira las sesiones a pedido hoy.

mira aquí Ya, al menos una persona ha muerto en un vehículo impulsado por IA. La IA Copilot de Microsoft aparentemente memorizó el código de transposición de matriz escasa del profesor de Texas A&M, Tim Davis. El algoritmo de Apple Card asignó a Steve Wozniak un límite de crédito 20 veces mayor que el de su esposa, a pesar de que los dos dividieron las finanzas. La Policía Metropolitana de Londres utilizó una red neuronal para buscar pornografía. Desafortunadamente, la red neuronal continuó identificando las dunas de arena como senos desnudos. Se suponía que el chatbot de la red neuronal de Microsoft, Tay, imitaría el comportamiento de una adolescente curiosa en Twitter. Desafortunadamente, Tay se convirtió en un negador racista y misógino en menos de 24 horas. Google Photos utilizó redes neuronales para identificar personas, objetos, animales, alimentos y fondos. Luego, inexplicablemente, identificó fotos de personas negras como gorilas.

Estos resultados van desde mortales hasta cómicos y extremadamente ofensivos. Y mientras se utilicen redes neuronales, corremos el riesgo de sufrir muchos daños. Las empresas y los consumidores temen con razón que mientras la IA permanezca opaca, seguirá siendo peligrosa.

Se acerca una respuesta regulatoria

En respuesta a estas preocupaciones, la UE ha propuesto una

What's Your Reaction?

like

dislike

love

funny

angry

sad

wow