Cinco cosas que tenés que saber para un uso responsable de la Inteligencia Artificial

Por Equipo Santander Post | 04-08-2023 | 13 min de lectura

Que la IA es una herramienta que está en muchos planos de nuestra vida y nuestros trabajos, es un hecho. ¿Cuáles son los desafíos y compromisos éticos que su uso requiere? Conocé las claves para utilizarla con creatividad y conciencia. 

La inteligencia artificial está causando un inmenso impacto en el mundo hace varios años ya, pero con la aparición acelerada de nuevas herramientas – como los chatbots o los generadores de imágenes, por nombrar algunos – no es posible dejar de preguntarse si las sociedades están realmente preparadas para enfrentar lo que vendrá en materia de conocimiento y uso responsable. 

El auge de la IA trae consigo muchas cosas positivas, como la asistencia para realizar tareas mecánicas o repetitivas, la generación de contenido frente a bloqueos creativos, y la posibilidad de organizar y optimizar proyectos de manera clara y concisa, entre otras. Sin embargo, frente a la creciente magnitud de esta herramienta, aún no están del todo claras las regulaciones para su uso seguro, por lo que es importante conocer frente a qué nos enfrentamos para protegernos y usarla de manera inteligente. 

Teniendo en cuenta algunos puntos, es más fácil darle un uso responsable a la inteligencia artificial augurando un futuro en el que todo sus usuarios puedan implementar las buenas prácticas y no sea un tema de preocupación. Conocé cuáles son las cinco cosas que tenés que tener en cuenta para usar la IA de manera cotidiana con responsabilidad. 

Reconocer sus riesgos

En el mundo de la tecnología informática, todo viene con sus respectivos riesgos. Más allá delos beneficios positivos que nos ofrece la IA diariamente, no está exenta de peligros y si bien no deberían ser motivos para dejar de usarla, sí es necesario tenerlos bien presentes para operar con cautela y no exponernos a situaciones innecesarias. 

En diálogo con Santander POST, Oscar Vidal, abogado especialista en IA, protección de datos, y fintech, se refiere a algunos de los desafíos que enfrenta el mundo de la inteligencia artificial al momento de identificar y detener los riesgos. “Una enumeración rápida podría incluir los sesgos discriminatorios, sistemas de cajas negras por los cuales no se puede explicar cómo se arribó al resultado, deep fakes, indefensión de las personas para poder demostrar un daño causado por estos sistemas, entre otros conflictos”, comenta.

De acuerdo con el especialista, uno de los principales problemas a enfrentar es la incertidumbre que genera lo desconocido. Vidal argumenta que “los sistemas de aprendizaje profundo y redes neuronales son desarrollados como cajas negras, y ni los creadores ni los programadores de estos sistemas pueden tener la certeza, trazabilidad o explicación de cómo la IA llegó a ese resultado”. Explica además que sos sistemas emulan las redes neuronales, otorgándoles diferente peso e importancia a los datos de manera aleatoria, lo que constituye “un gran desafío y deuda intelectual de la ingeniería de los sistemas de IA, de resolución muy compleja”.

En gran parte, una forma de minimizar los riesgos enfrentados frente al trabajo con inteligencia artificial está en manos del usuario, que debe saber controlar correctamente lo que hace con su propia información. En conversación con POST, Florencia Azategui Zabala, abogada especialista en IA y derecho, y referente de la Secretaría de Innovación y Transformación Digital del GCBA, detalla algunos de los cuidados que considera hay que tener al momento de operar. 

“Es importante limitar la información personal que compartimos, evitando proporcionar información personal sensible – como información financiera – a menos que sea absolutamente necesario. Lo recomendable es compartir solo lo estrictamente necesario, minimizando así el riesgo de que haya información comprometida”, enumera, y agrega la necesidad de elegir contraseñas fuertes, utilizar autenticación de dos pasos y herramientas de cifrado para sumar capas extra en materia de ciberseguridad.

No olvidar la responsabilidad ética

Cuando se debate acerca de la IA y algunas de las problemáticas que presenta en el día a día, la complejidad ética es una de las que suele salir a luz primero, ya que la línea entre “lo que está bien y lo que está mal” es muy delgada y puede borrarse. Éticamente hablando, la inteligencia artificial se encuentra en el foco del debate porque hay diversas cuestiones que aún no están correctamente reglamentadas o escapan directamente a las regulaciones de la ley. 

La toma de decisiones en manos de la IA, por ejemplo, es una de las cuestiones que mayor preocupación genera en los expertos: ¿quién está detrás de las elecciones hechas por la tecnología? 

Vidal define a la inteligencia artificial como un “fenómeno disruptivo y exponencial que atraviesa toda la sociedad y que debe ser abordado de manera multidisciplinaria e integral”. El letrado considera que no debería dejarse el manejo solo en las manos de las compañías desarrolladoras, ingenieros, o programadores de los sistemas: “los abogados, juristas, psicólogos, y filósofos tenemos mucho que aportar, ya que las implicaciones o consecuencias legales y éticas de estos sistemas deben ser abordados desde estas ciencias”.

Vidal plantea una situación muy clara para ejemplificar la importancia de la ética en la IA: el manejo autónomo de vehículos. En este escenario, los distintos dilemas morales que eran planteados como situaciones íntegramente utópicas en la academia, se vuelven realidad con base en la programación de los algoritmos de IA de los vehículos. El abogado se pregunta si alguien compraría un automóvil que decide salvar, frente a un eventual siniestro, al peatón en lugar de a quien lo conduce, y él mismo ofrece la respuesta: “Este dilema ya fue aclarado por una gran automotriz alemana, que ya declaró que sus autos siempre privilegiarán a sus conductores.”

Regular y mejorar el tratamiento de datos

Vivimos en un momento tecnológico global en el que existe un uso – y abuso – de datos inmenso, que de no controlarse podría traer problemas a nivel personal, empresarial, educativo, y demás. De no contar con una regulación del uso de datos pertinente, será muy difícil en el futuro controlar qué se hace con nuestra información. 

En referencia a esto, Azategui Zabala considera que, dado que la IA está basada en enormes cantidades de datos, “sus marcos regulatorios requieren un enfoque riguroso”. La abogada plantea que en un presente regido por un entorno digital acelerado y enfrentado a grandes desafíos, “frente a la tensión existente entre tecnología y derecho, se erige el derecho a la protección de los datos personas y a la autodeterminación informativa, para garantizar a las personas la posibilidad efectiva de disponer y controlar los datos que le conciernen”.

Para entender un poco la relevancia real de este punto, no hay que dejar de mencionar que en 2018 entró en vigencia en la Unión Europea el Reglamento General de Protección de Datos (RGPD), el cual limita la forma en la que se recolectan, procesan, y guardan los datos de las personas. De acuerdo con Vidal, esta regulación podría ser considerada una “valla de contención en muchas ocasiones fácil de saltar por parte de las Big Tech, ya que básicamente los Términos y Condiciones de las plataformas digitales están realizados para que nadie los lea o los entienda, por lo cual no hay un consentimiento real”. 

Sin embargo, opina que no deja de ser un límite a las compañías tecnológicas, “las cuales fueron objeto de grandes multas por infringir esta ley”, y considera que las regulaciones planteadas por la UE son interesantes y valiosas, ya que “no toda regulación mata la innovación”.

En el caso particular de Argentina, la regulación relativa a la protección de datos está pendiente de actualización desde hace años (es del año 2000). Azategui Zabala expone que “se han presentado ante el Poder Legislativo diferentes proyectos de actualización de la Ley de Protección de Datos Personales provenientes de diversos espacios, pero aún no han encontrado tratamiento por parte del Congreso”, considerándolo un tema de carácter urgente que debe modificarse “mediante una ley que unifique la reglamentación dispersa existente, consolide los derechos emergentes de este nuevo contexto, y que – sin dejar de promover un escenario apto para la inversión, la innovación y la transformación digital necesarias para el desarrollo del país – garantice una debida protección del derecho a la privacidad de nuestros datos y la autodeterminación sobre nuestra información”.

Explicar y fomentar la transparencia

¿De qué se trata la transparencia en términos de IA? En primer lugar, de comprender con exactitud de qué trabaja y cómo funcionan sus sistemas, entendiendo que no toda la información aportada puede ser completamente verídica ni que la información que uno comparte está libre de divulgación. 

Azategui Zabala vuelve a enfatizar sobre el establecimiento de marcos legales y regulatorios. La especialista considera que en este punto es “imperativo que los gobiernos participen activamente,  tanto a nivel local, como regional, de los debates actuales sobre las implicancias del desarrollo de la IA y formulen esquemas normativos robustos pero flexibles” que permitan el desarrollo cuidando a los usuarios e informándoles acerca de los compromisos éticos vigentes, junto con la difusión de buenas prácticas de la mano de la IA

Es importante que las regulaciones planteen mecanismos claros de rendición de cuentas y responsabilidad que sirvan para “promover la transparencia en el desarrollo de los sistemas y algoritmos”. Para garantizar la seguridad y la autonomía de las personas, los sistemas deben ser fiables y seguros, trabajando siempre hacia la intención de hacer el bien y no el daño (por ejemplo, frente a la crisis vigente en la que se enfrentan el empleo y la IA, encontrar “una transición que proporcione oportunidades de reconversión laboral”).

Asegurar que la información tenga sentido y sea verídica

Con la aparición de los generadores de imágenes a partir de sencillas instrucciones brindadas por el usuario (o incluso piezas de texto), aparecieron también problemáticas a nivel veracidad. Si bien al comienzo se trataba de escenarios ficticios que visiblemente podían distinguirse de situaciones reales, con el avance de la tecnología se llegó a la generación de imágenes hiperrealistas que necesitan ser diferenciadas de las verdaderas (por ejemplo, la foto del Papa Francisco vistiendo una campera de Balenciaga). 

Este contenido recibe el nombre de “deepfake”, y de acuerdo con Azategui Zabala, si bien en muchas ocasiones ha sido de gran ayuda dentro de procesos creativos (por ejemplo, efectos especiales en películas), platea también preocupaciones éticas: “si las ‘fake news’ llevan décadas haciendo que la gente cambie de opinión mediante argumentos falsos, ¿cuánto más puede lograr una imagen o un vídeo que puede ser memorizada y retenida más fácilmente en nuestro cerebro?”, se plantea la especialista.

El problema con los deepfakes radica en el potencial que acarrean para ser utilizados de manera maliciosa o engañosa, ya que “suelen ser utilizados para difamar, extorsionar, o acosar a personas mediante videos falsos. Se trata de una situación que puede tener un impacto significativo en la reputación y la privacidad de las personas”, agrega.

Vidal coincide y asegura que uno de los grandes desafíos que enfrenta la sociedad está “en saber qué es verdadero y qué es falso”. El experto afirma que ha quedado en evidencia cómo a través del perfilamiento y la minería de datos se puede manipular, de forma muy sofisticada, la opinión de la gente. Del mismo modo, ratifica que las nuevas normativas de la UE incluyen apartados acerca de la regulación de estas situaciones (por ejemplo, mediante la inclusión de marcas de agua en contenido generado por IA). 

“Sin duda, los medios que no quieran sufrir traspiés reputacionales serios deberán estar muy atentos a las fuentes y veracidad de estas. Puede ser que esa función siempre haya sido el valor de la prensa responsable y ahora solo la tecnología vuelva a interpelar o dificultar esa función”, recomienda para finalizar.

Mención especial: no perder de vista la comunicación

Una vez comprendidos los pilares del uso responsable de la IA, queda en manos de los usuarios hacer uso de las buenas prácticas para protegerse a sí mismos y a los demás miembros de la comunidad. Sin embargo, es muy importante que exista una comunicación fluida y clara acerca de todo lo relativo a nuevas tecnologías, intentando siempre mantener a las sociedades informadas y en pleno conocimiento de lo que las rodea. 

En primer lugar, existe una obligación legal y moral de las empresas de informar a sus usuarios acerca de políticas de privacidad: está en los humanos asegurarse de leerlas y sobre todo comprenderlas, ya que de eso depende la seguridad de nuestros datos. 

El compromiso de quienes estudian y trabajan estas cuestiones – y de quienes velan por nuestra seguridad – como investigadores, desarrolladores, legisladores, etc., yace en el fomento de la conciencia en el uso de herramientas tecnológicas, así como también la educación, la sensibilización, y la investigación responsable y certera. Solo de esta forma podremos vivir con la tranquilidad de que nos encontramos frente a un nuevo aliado virtual que beneficiará a la sociedad más que perjudicarla. 

En Santander Argentina por ejemplo, el equipo de la Tribu Digital, utiliza IA para las campañas de tráfico en Google dirigidas a SuperCuenta

Aún no hay comentarios

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Más historias
Artículo

En un mundo basado en el uso inteligente de los datos, estos resultan valiosos para fortalecer la toma de decisiones estratégicas en las organizaciones. ¿Cómo aprovechar el el dark data, conocido también como datos ocultos, para hacer crecer los negocios? ¿Cuáles son las herramientas y soluciones disponibles para procesar esta información? 

Innovación 5 min
¡No te pierdas nada! Suscribite a nuestro Newsletter