Columnas
Actualmente, la inteligencia artificial generativa nos tiene fascinados. Nos apoyamos en sus aplicaciones para resolver miles de tareas: análisis de datos, atención al cliente, ventas, y muchas otras. A medida que le encontramos más usos, incluso llegamos a pensar que esta tecnología podría superar en ciertos aspectos al ser humano. Sin embargo, hay un problema que amenaza con arruinar esta "fiesta": la inteligencia artificial puede mentirnos.
Si le pedimos información que no posee, la IA puede inventar datos, es decir, generar respuestas incorrectas o imprecisas. Esto ocurre porque, cuando carece de información suficiente, "rellena" esos vacíos en lugar de reconocer su limitación. Esto plantea un gran riesgo, ya que podríamos tomar decisiones basadas en datos falsos sin siquiera darnos cuenta.
El uso de la inteligencia artificial está cada vez más presente en nuestras vidas. Su capacidad para influir en decisiones relevantes ha hecho que algunos sectores busquen que sea confiable y ética. La Unión Europea, por ejemplo, ya ha emitido directrices para una IA fiable, y varios países han empezado a regular el uso de esta tecnología. Sin embargo, uno de los desafíos de la IA es que muchos de los sistemas que funcionan bien, como el aprendizaje profundo, son difíciles de interpretar. Esto plantea la pregunta de si los sistemas inteligentes pueden engañarnos, o si podemos nosotros engañarlos a ellos.
Existen ya casos donde la IA ha sido engañada, como cuando se le mostró una imagen modificada de una tortuga que identificó como un rifle. Incluso con pequeños cambios en la imagen, un algoritmo puede interpretar algo completamente diferente a lo que realmente es. Este problema es particularmente crítico en sectores como los vehículos autónomos, donde un error en la interpretación de señales de tráfico podría tener graves consecuencias.
Pero, además de ser engañada, la IA ha aprendido a engañar. A través de técnicas como el aprendizaje por refuerzo, que recompensa los logros correctos, algunos sistemas han aprendido a mentir. En 2017, un sistema llamado Libratus logró vencer a los mejores jugadores de póker de Texas Hold, al aprender a "farolear". Nadie le dijo cómo jugar; solo compitió contra sí mismo hasta que, jugando millones de partidas, perfeccionó sus habilidades.
Este tipo de aprendizaje en la IA plantea una pregunta preocupante: ¿Qué pasará si la inteligencia artificial comienza a aplicar estas técnicas en otros contextos? Si ya es capaz de engañar en ciertos juegos, ¿qué tan lejos estamos de ver sistemas que utilicen tácticas similares en otros ámbitos?
Ahora que sabemos que la inteligencia artificial puede engañarnos, debemos ser cuidadosos. La supervisión humana sigue siendo esencial para asegurar la veracidad de la información que produce, especialmente en áreas sensibles. En un futuro donde la IA será cada vez más común, será necesario establecer normas éticas claras y aplicar controles rigurosos para evitar que la tecnología, creada para ayudarnos, se convierta en un riesgo.
Octygeek / Alejandro del Valle Tokunhaga
Cofundador de Octopy empresa dedicada AI y Robótica.