05 JUN | 18:51

¿Es necesaria una regulación pública en materia de Inteligencia Artificial?

La puesta en el mercado de esta herramienta haciéndola de acceso masivo y la evidencia de los riesgos que puede traer aparejados instaló un debate que ya comenzó en varios países. Por Delia Ferreira y Beltran Gambier
¿Es necesaria una regulación pública en materia de Inteligencia Artificial?
 
Sr. Juez,
 
En autos caratulados XXX vengo a decir:
 
1. Me disculpo por el escrito presentado contestando la demanda contra mi cliente ZZZ
 
2. Toda la jurisprudencia allí citada en defensa de mi cliente es absolutamente falsa, como Ud. ya descubrió
 
3. El escrito de contestación de demanda fue preparado “en colaboración con ChatGPT”.
 
4. El presente escrito reemplaza al anterior. Ha sido preparado por mí sin colaboración de ChatGPT.
 
La tecnología avanza cada día trayendo casi siempre bienestar a los humanos, pero también, a veces, preocupaciones.
 
Partimos de la base de que, en principio, rige el principio de plena libertad para las empresas en lo que se refiere a sus capacidades de desarrollo tecnológico.
 
Sin embargo, las administraciones siempre conservan potestades regulatorias si el interés general o público pudiera considerarse comprometido con alguna consecuencia vinculada con los desarrollos de la IA. Ello ocurre en todos los ordenamientos jurídicos.
 
Estamos frente a herramientas o útiles, que pueden ser utilizados de diversa forma y con distintos fines, para hacer el bien o para dañar y pueden también producir daños no intencionales, tanto a nivel personal como con alcance social. Lo importante, entonces, es el uso que hagamos de estas herramientas.
 
Regular o no regular: esa es la cuestión
 
La puesta en el mercado de estas herramientas haciéndolas de acceso masivo y la evidencia de los riesgos que pueden traer aparejados han generado un debate público sobre la necesidad de regular la creación, distribución y uso de las mismas.
 
La eventual regulación plantea un sinnúmero de aspectos a considerar y discutir: ¿alcanza con la auto-regulación, o hay que legislar? En ese caso, la regulación podría provenir de las administraciones sub-nacionales, nacionales o, quizás, de algún organismo internacional. En cualquier caso, habrá que evaluar la competencia para su implementación efectiva, para evitar que la regulación se transforme en una mera declaración sin impacto real.
 
Otra cuestión jurídica por discutir -y de gran relevancia- es el balance entre el uso de las nuevas tecnologías y los principios generales del derecho, la protección del interés público y de otros derechos, como la libertad de expresión, el derecho a la intimidad, la libertad de empresa y la propiedad intelectual, por solo mencionar algunas de las áreas en las que ya se han generado conflictos y se han producido daños. Todos los días recibimos noticia de ello.
 
El ChatGPT, en el ojo de la tormenta (REUTERS/Florence Lo/Illustration/File Photo)
 
Hasta el momento la auto-regulación por parte de las empresas tecnológicas ha sido la opción predominante, aunque hoy son los líderes de esas empresas los que solicitan a las autoridades que regulen la producción, desarrollo, distribución y uso de estas herramientas. Como en el famoso poema de Goethe El Aprendiz de Brujo, la criatura se está saliendo de control.
 
La Unión Europea discute la adopción de una Directiva que regulará las herramientas de inteligencia artificial (IA) y las plataformas sociales. Por su parte, el Senado de los Estados Unidos ha realizado una serie de audiencias con vistas a preparar normas federales. A nivel estadual ya se han aprobado leyes para regular -y en muchos casos limitar- el uso de algunas herramientas en particular, por ejemplo, la tecnología de reconocimiento facial.
 
La pregunta que aún subsiste es en qué medida las normas generales aprobadas a nivel nacional tendrán verdadero impacto, visto que las plataformas se despliegan desde otras jurisdicciones. Teniendo en cuenta este problema, organismos como la UNESCO han desarrollado algunos estándares internacionales, pero estimamos que la aprobación de normas internacionales vinculantes llevará mucho más tiempo.
 
La moderación de contenido en las redes sociales es un tema clave. Facebook, Twitter y otras empresas se han encargado de moderar los contenidos que postean los usuarios para evitar, por ejemplo, el lenguaje de odio, la incitación a la violencia racista, o la pedofilia.
 
Esta moderación está mayormente automatizada a través del uso de algoritmos, aunque en algunos casos residuales la decisión está en mano de seres humanos. ¿Qué se considera lenguaje de odio? ¿Qué imágenes son violatorias de los estándares fijados por las empresas? ¿Qué se puede postear, decir y qué no? La respuesta a estas preguntas genera intensas discusiones toda vez que cualquier regulación al respecto puede afectar la libertad de expresión.
 
Las herramientas de IA se entrenan con cantidades enormes de datos. En el caso del ChatGPT, por ejemplo, todo lo escrito y publicado y todo el contenido de Internet hasta 2021. Muchos de esos materiales están sujetos a copyright y son propiedad intelectual de sus autores. ¿Tienen los autores derecho a reclamar pago de derechos, la correcta cita de la fuente y la no alteración del contenido original? Pareciera que sí, sin embargo es algo difícil en la práctica. Ya se han iniciado algunas acciones judiciales en defensa de estos derechos. Otro aspecto que la regulación de las herramientas de IA deberá contemplar
 
La regulación también deberá atender a la responsabilidad por los daños causados por el uso de estas tecnologías. ¿Quién responde cuando ChatGPT le atribuye falsamente a una persona la comisión de un delito y no sólo eso, sino que adjunta en soporte de la afirmación el vínculo a artículos periodísticos falsos o directamente inexistentes? Las empresas suelen descargar la responsabilidad en “el algoritmo”. El problema es que ellas han creado y puesto en el mercado sistemas que en muchas ocasiones “alucinan” -así se denominan por ahora estos despistes del algoritmo-.
 
Por ello, no debería delegarse la toma de decisiones en estas herramientas, pero hay Estados que ya lo hacen, muchas veces afectando la vida, propiedad, libertad y futuro de la gente. De allí que la eventual regulación debería garantizar como para cualquier otra forma de poder de decisión: transparencia, control, revisión (ante un potencial órgano administrativo -hoy inexistente- y luego en la Justicia) y posibilidad de rectificación.
 
ChatGPT escribe, pero no entiende lo que escribe
 
Volvamos a nuestro abogado del comienzo y aclaremos que el caso es real y el escrito fue presentado en un juzgado de Nueva York. Es muy importante aclarar que ChatGPT no es un software pensante. Es un Modelo de Lenguaje (Large Language Model en inglés), un algoritmo entrenado con una inmensa cantidad de datos para que prediga con acierto llamativo qué palabra continúa a otra en una oración, produciendo así textos de buena factura lingüística.
 
El ChatGPT es un juguete bueno para la sintaxis, pero incapaz en semántica. “Sabe” escribir, pero no “entiende” lo que escribe. Y en ocasiones escribe tonterías o directamente inventa cosas descabelladas o responde con afirmaciones falsas.
 
El abogado de NY en vez de confiar en ChatGPT como su “colaborador”, debería haber verificado el contenido del escrito antes de presentarlo. Si hubiera controlado tan sólo una de las referencias jurisprudenciales, se hubiera dado cuenta de que no existía y podría haber dudado del resto del trabajo de su “colaborador”. Eso fue lo que hizo del juez.
 
Más allá de lo que se pueda hacer a través de la regulación, está claro que todos deberíamos educarnos más en la digitalización que está cada vez más presente en nuestra vida, para usar con cuidado las herramientas llamadas de “inteligencia” artificial.

DEJANOS TU COMETARIO


COMENTARIOS