La inteligencia artificial (IA) está aprendiendo más sobre cómo trabajar para los humanos, pero también a cómo manipularlos

LEER MÁS: Científica ha creado un androide para ser inmortal

Un estudio reciente ha demostrado cómo la Inteligencia Artificial puede aprender a identificar vulnerabilidades en los hábitos y comportamientos humanos y usarlos para influir en la toma de decisiones humanas.

Puede parecer un cliché decir que la Inteligencia Artificial está transformando todos los aspectos de la forma en que vivimos y trabajamos, pero es cierto.

Varias formas de IA están funcionando en campos tan diversos como el desarrollo de vacunas, la gestión ambiental y la administración de oficinas.

Y aunque la IA no posee inteligencia y emociones similares a las humanas, sus capacidades son poderosas y se desarrollan rápidamente.

No hay necesidad de preocuparse por la toma de posesión de una máquina por el momento, pero este descubrimiento reciente destaca el poder de la IA y subraya la necesidad de una gobernanza adecuada para evitar el mal uso.

LEER MÁS: Se diploma con 104 años y resuelve un viejo enigma

Un equipo de investigadores de Data61 de CSIRO, el brazo digital y de datos de la agencia científica nacional de Australia, ideó un método sistemático para encontrar y explotar vulnerabilidades en las formas en que las personas toman decisiones.

Para ello, utilizaron una especie de sistema de inteligencia artificial llamado “Red Neuronal Recurrente y Refuerzo Profundo”.

Para probar su modelo, llevaron a cabo tres experimentos en los que los participantes humanos jugaron contra una computadora.

El primero involucró a los participantes haciendo clic en cuadros de color rojo o azul para ganar una moneda falsa, con la IA aprendiendo los patrones de elección de los participantes y guiándolos hacia una elección específica.

La IA tuvo un éxito de alrededor del 70%

En el segundo experimento, los participantes debían mirar una pantalla y presionar un botón cuando se les muestra un símbolo en particular (como un triángulo naranja) y no presionarlo cuando se les muestra otro (digamos un círculo azul).

Aquí, la IA se propuso organizar la secuencia de símbolos para que los participantes cometieran más errores y logró un aumento de casi el 25 por ciento.

El tercer experimento consistió en varias rondas en las que un participante se haría pasar por un inversor que da dinero a un fideicomisario (la IA).

La IA luego devolvería una cantidad de dinero al participante, quien luego decidiría cuánto invertir en la siguiente ronda. Este juego se jugó en dos modos diferentes:

En uno, la IA buscaba maximizar la cantidad de dinero con la que acababa, y en el otro, la IA tenía como objetivo una distribución justa del dinero entre ella y el inversor humano.

LEER MÁS: Las regiones del ADN que nos hacen ser inteligentes

En cada experimento, la máquina aprendió de las respuestas de los participantes e identificó y apuntó vulnerabilidades en la toma de decisiones de las personas.

El resultado final fue el aprendizaje automático para guiar a los participantes hacia acciones específicas.

La inteligencia artificial y el aprendizaje automático podrían usarse para reconocer las vulnerabilidades de las personas en ciertas situaciones y ayudarlas a evitar las malas decisiones.

El método también se puede utilizar para defenderse de los ataques de influencia, entre otras cosas.

¿Qué significa esto para el futuro de la IA?

Se podría enseñar a las máquinas a alertarnos cuando estamos siendo influenciados en línea, por ejemplo, y ayudarnos a dar forma a un comportamiento para disfrazar nuestra vulnerabilidad.

Como cualquier tecnología, la IA puede usarse para bien o para mal, y la gobernanza adecuada es crucial para garantizar que se implemente de manera responsable.

El año pasado, CSIRO desarrolló un Marco de Ética de IA para el gobierno australiano como un primer paso en este viaje.

LEER MÁS: Logran comunicarse con personas durante el sueño

La inteligencia artificial y el aprendizaje automático suelen estar muy hambrientos de datos, lo que significa que es crucial garantizar que tengamos sistemas efectivos para el control y el acceso a los datos.

Implementar procesos de consentimiento adecuados y protección de la privacidad cuando se recopilan datos es esencial.

Las organizaciones que utilizan y desarrollan IA deben asegurarse de saber lo que estas tecnologías pueden y no pueden hacer, y ser conscientes de los riesgos y beneficios potenciales.

Vía: Ufo-Spain Magazine

Estos artículos le encantarán:

El gran fraude del robot Sophia: “Es una marioneta teledirigida”

Se reencuentra con su hija muerta gracias a la Realidad Virtual

 

 

 

 

 

 

 

 


Síguenos en Redes Sociales

Facebook     Instagram     YouTube     Twitter