Un robot embauca a un soldado enemigo mediante la creación de una pista falsa y se oculta para no ser capturado. Aunque esto suena como una escena sacada de alguna película de ciencia-ficción de la saga de “Terminator”, es en realidad el escenario de un experimento realizado por investigadores del Instituto Tecnológico de Georgia, Estados Unidos, como parte de lo que se considera el primer examen detallado de un engaño perpetrado por un robot.
Ronald Arkin y su equipo han desarrollado algoritmos que permiten a un robot determinar si debe o no engañar a un humano o a otra máquina inteligente, y han diseñado técnicas que ayudan a que el robot elija la mejor estrategia de engaño para reducir las probabilidades de ser descubierto.
Los resultados del estudio competen a las interacciones robot-robot y humano-robot.
Esta investigación ha sido financiada por la Oficina de Investigación Naval, dependiente de la Armada Estadounidense.
En el futuro, los robots capaces de engañar pueden ser útiles en diversas áreas, incluyendo las actividades militares y también las operaciones de búsqueda y rescate.
Un robot de búsqueda y rescate puede necesitar engañar con mentiras piadosas a humanos en peligro, con el fin de calmarles o de recibir de ellos la cooperación necesaria, evitando que el pánico se apodere de ellos y les incapacite para emprender las acciones requeridas por el plan de rescate.
En el campo de batalla, los robots con el poder del engaño tendrán la habilidad de ocultarse y despistar con éxito al enemigo, y así mantener a salvo una información valiosa o ser capaces de alcanzar otros objetivos.
Probablemente, la mayoría de los robots sociales raramente necesitarán utilizar el engaño, pero ésta sigue siendo una herramienta importante en el arsenal interactivo del robot, porque los que reconozcan la necesidad de engañar tienen ventajas, en términos de resultados, en comparación con los que no la reconozcan. Así lo cree Alan Wagner, un ingeniero investigador del Instituto Tecnológico de Georgia, y miembro del equipo de investigación.
Para poner a prueba sus algoritmos, los investigadores realizaron 20 experimentos con situaciones en las que un robot debía eludir a otro que le estaba buscando. Unos y otros funcionaban de manera autónoma sobre el terreno.
Los robots que se escondían fueron capaces de engañar a los robots buscadores en el 75 por ciento de las pruebas. Se espera que este porcentaje, aunque es razonablemente bueno, aumente más a medida que se perfeccione la capacidad de los robots para engañar.
Los investigadores admiten que, si bien hay ventajas en la creación de robots con esta capacidad, también existen cuestiones éticas que deben ser tenidas en cuenta para garantizar que estas nuevas y taimadas máquinas estén en consonancia con las expectativas de sus creadores sobre lo que deben y lo que no deben hacer, y no comprometan el bienestar de la sociedad.
“Hemos estado muy sensibilizados desde el principio con las implicaciones éticas de crear robots capaces de engañar, y somos conscientes de que hay aspectos positivos y otros negativos”, confiesa Arkin.”Recomendamos plenamente el debate sobre la idoneidad de estos robots, a la hora de decidir qué posibles reglamentaciones o directrices deberían regir el desarrollo de estos sistemas”.