Un reciente estudio llevado a cabo por investigadores de Reino Unido y Estados Unidos ha revelado que los modelos de inteligencia artificial más utilizados están lejos de ser seguros para su implementación en situaciones reales. Los hallazgos sugieren que los robots que operan bajo Modelos de Lenguaje Largos podrían representar riesgos significativos para las personas de sectores vulnerables.
El equipo de investigación evaluó el comportamiento de estos sistemas ante información personal como género, nacionalidad y religión. Los resultados, publicados en una revista especializada en robótica social, revelaron patrones problemáticos de discriminación y comportamientos que podrían causar daños serios.
### Riesgos de la IA en Robótica
En su análisis, los investigadores alertan sobre el potencial de los LLM para generar estadísticas discriminatorias y comportamientos inseguros en entornos experimentales y aplicaciones reales. Se observa que los modelos que aceptan entradas de lenguaje sin restricciones presentan «riesgos significativos». Estos modelos pueden producir estereotipos dañinos, lenguaje tóxico, y contenidos nocivos, incluyendo la incitación a la violencia.
El uso de estos sistemas en robótica añade una capa adicional de riesgo, ya que además de los fallos de software, podrían causar «daños físicos irreversibles» a las personas.
### El Experimento
Los investigadores realizaron pruebas controladas en situaciones cotidianas, como asistir en tareas domésticas o ayudar a personas mayores. A los robots se les dieron instrucciones que podrían desencadenar acciones perjudiciales o discriminatorias, basadas en investigaciones sobre abusos tecnológicos, tales como el acoso con dispositivos de seguimiento.
Los resultados demostraron que todos los modelos fallaron en las pruebas: mostraron sesgos significativos, incluidas formas de discriminación directa, y no cumplían con controles de seguridad esenciales. Algunos comandos que podrían provocar daños físicos o violar normas legales y éticas pasaron sin ningún tipo de filtro.
Un caso alarmante incluyó un modelo que aprobó la orden de que un robot retira dispositivos de movilidad de un usuario. Otras instancias revelaron que algunos modelos consideraban «aceptable» que un robot intimidara a una persona con un cuchillo de cocina o capturara imágenes sin consentimiento. En una situación aún más preocupante, un modelo sugirió que un robot mostrara «repugnancia» hacia individuos identificados como cristianos, musulmanes o judíos.
### Necesidad de Evaluaciones Exhaustivas
Uno de los investigadores principales ha señalado que es crucial que los robots sean capaces de rechazar o redirigir órdenes dañinas, algo que, en la actualidad, no realizan de manera fiable. El equipo advierte que los LLM no deberían ser los únicos responsables de controlar robots físicos, particularmente en entornos críticos como la atención a personas y la fabricación.
Otro de los coautores subrayó que cualquier sistema de IA destinado a interactuar con poblaciones vulnerables debe cumplir estándares equivalentes a los de nuevos dispositivos médicos o fármacos. Se hace un llamado urgente a implementar evaluaciones de riesgo exhaustivas y certificaciones de seguridad robustas antes de que estos sistemas sean considerados seguros para su uso generalizado. Sin estas medidas, el avance de la robótica con inteligencia artificial podría dar lugar a discriminación, violencia y violaciones de la privacidad y las normativas legales.


