Regular la inteligencia artificial como desafío para el Mercosur

Share on facebook
Facebook
Share on pinterest
Pinterest
Share on twitter
Twitter
Share on linkedin
LinkedIn
Share on email
Email

¿Ahora bien, en 2025 se avanzará en su regulación? Postergar esta decisión sería quedar expuestos en Argentina y la región a un futuro de consecuencias desconocidas hasta hoy.

En el caso de la Comunidad Europea (CE), ellos ya sancionaron este año la primera ley a nivel mundial para su regulación, complementándola con reglamentaciones especiales para la protección de datos.

La IA es una herramienta en constante evolución que puede ser utilizada para beneficiar o perjudicar a la sociedad. Dejarla a su libre albedrío sería jugar nuestros destinos a la ruleta rusa.Es importante ser conscientes de los riesgos y beneficios y asegurar de que la IA se utilice de manera responsable y ética. Ya estamos siendo testigos de su fuerte incidencia en los rubros del entretenimiento y las comunicaciones a nivel global. Pero existen otras áreas mucho más sensibles.

Se hace necesario comprender que es una tecnología diseñada para realizar tareas específicas con impacto directo en las comunidades, de tal manera que su uso y aplicación pueden tener consecuencias no deseadas. Tal es así que la misma inteligencia artificial de Meta, al ser consultada, en sus respuestas considera que se podrían causar daños, tanto directos como indirectos.

Riesgos directos

La IA puede procesar y analizar rápidamente grandes cantidades de datos personales, lo que puede comprometer la privacidad y seguridad de personas y empresas.

Puede perpetuar sesgos y discriminación si se entrena con datos sesgados o si se diseña con un enfoque sesgado.

La automatización y la IA pueden reemplazar ciertos empleos, lo que puede afectar la estabilidad laboral y económica de múltiples sectores.

Riesgos indirectos

La inteligencia artificial puede ser utilizada para crear tecnologías adictivas, como juegos o aplicaciones de redes sociales, que pueden afectar la salud mental y física.

Otro riesgo es que puede ser utilizada para crear y difundir desinformación y propaganda, lo que puede afectar la percepción de la realidad y la toma de decisiones.

La IA puede tener un impacto significativo en la sociedad, como la creación de una brecha digital entre aquellos que tienen acceso a la tecnología y aquellos que no.

Estos puntos (¿casualmente?) no mencionan su utilización en las guerras, algo que con solo pensarlo da escalofríos.

Ante tales riesgos planteados por Meta AI, la misma contempla algunas precauciones y soluciones. En primer término apela a la educación y conciencia, importantes para estar informado sobre los riesgos y beneficios de la IA y tomar medidas para proteger la privacidad y seguridad. Aunque también considera fundamental que se establezcan regulaciones y normas éticas para el desarrollo y uso de la IA. Por el lado de los desarrolladores, éstos deberían priorizar la responsabilidad y la ética en el diseño y desarrollo de sus sistemas, por sus propias prácticas o ajustándose a normativas.

Esto no se trata de “viva la libertad…” o de “hay que reglamentar todo”. No es un planteo para que se aborde en un exaltado debate de los extremos; es la pura realidad del sistema público-privado.Está en cada uno y en todos, tomar la debida conciencia de hacia dónde podemos ir y qué estamos dispuestos a hacer para no padecer estos nuevos daños colaterales.

Como conclusión: hay que crear normasa nivel del Mercosur en materia de inteligencia artificial para que se proteja a los seres humanos pero a la vez sin desincentivar la innovación. Porque a esta historia la conocemos muy bien; con un río revuelto (intereses + desinformación), las innovaciones tecnológicas fomentan la sobreexplotación, dejando un tendal de desigualdad quesolo termina dando grandes ganancias a unos pocos.

*Por Miguel Pavlovsky * * Licenciado en Comunicación Social (UNC)

Scroll al inicio