Columnas
El uso de la Inteligencia Artificial [IA] es hoy una realidad. Esta herramienta se emplea en diversas áreas, como oficinas, producción audiovisual, programación, medicina, consultoría privada y gobierno. Por ejemplo, el estudio de la UNESCO “Global Judges’ Initiative: Survey on the Use of AI Systems by Judicial Operators”, que entrevistó a 36,000 actores judiciales de 160 países, identificó que el 44% de los operadores judiciales han utilizado herramientas de IA para actividades relacionadas con su trabajo, y el 41% mencionó haber usado ChatGPT u otros chatbots de IA. Además, el 20% respondió que había utilizado sistemas de IA solo unas pocas veces, el 13% de manera semanal o mensual, y el 11% a diario. Los operadores judiciales declararon que utilizan chatbots de IA como ChatGPT para realizar principalmente tres tareas: búsqueda (43%), redacción de documentos (28%) y lluvia de ideas (14%). Aunque la implementación de la IA varía, es probable que su uso continúe en aumento.
Como cualquier herramienta, los riesgos de la IA dependerán del uso que se le dé. Sin embargo, un aspecto fundamental será la regulación que se implemente. Aunque existen diversas propuestas internacionales, la regulación en cada país es diferente. En México, no contamos con una regulación específica a nivel de ley general, nacional o federal sobre esta materia, sin embargo, existen varias iniciativas en curso.
Los riesgos asociados con la IA en diferentes países abarcan una amplia gama de aspectos. Por ejemplo, desde el punto de vista legal, rige el principio de “nullum crimen, nulla poena sine lege”, que significa “no hay delito ni pena sin ley”. Por lo tanto, si se comete un acto ilícito mediante el uso de IA que no encuadre en los tipos penales vigentes, podría considerarse una “laguna legal” y no ser sancionable. Lo mismo podría aplicarse al derecho administrativo sancionador, ya que por analogía se utiliza esta regulación.
Por ello, es importante comprender mejor esta herramienta. Por ejemplo, el uso de datos sensibles debe manejarse con cuidado, ya que, al utilizarse en herramientas de IA, es similar a compartirlos con el mundo. Además, es crucial analizar los sesgos que puedan existir en las respuestas de la IA, asegurándose de que no violen los derechos humanos de grupos históricamente invisibilizados y marginados, para evitar perpetuar estigmas. Esto también plantea la cuestión de qué participación social o democrática deberá tener el Estado para normar estos aspectos.
La IA es una gran herramienta, pero los riesgos que implica están íntimamente relacionados con el uso que se le dé. Esto, a su vez, estará en cierta medida regulado por la intervención del Estado y el sector privado.
Imagen generada mediante IA