Las IA generativas , como ChatGPT, han revolucionado la forma en que interactuamos y vemos la IA. Actividades como escribir, codificar y solicitar trabajos se han vuelto mucho más fáciles y rápidas. Sin embargo, con todos los aspectos positivos, existen algunos riesgos bastante serios.
Una preocupación importante con la IA es la confianza y la seguridad, lo que incluso ha provocado que algunos países prohíban por completo ChatGPT en su totalidad o reconsideren la política en torno a la IA para proteger a los usuarios de daños.
Según el analista de Gartner, Avivah Litan, algunos de los mayores riesgos de la IA generativa se refieren a la confianza y la seguridad e incluyen alucinaciones, falsificaciones profundas, privacidad de datos, problemas de derechos de autor y problemas de ciberseguridad.
1. Alucinaciones
Las alucinaciones se refieren a los errores que los modelos de IA son propensos a cometer porque, aunque son avanzados, todavía no son humanos y dependen del entrenamiento y los datos para dar respuestas.
Si ha usado un chatbot con IA, probablemente haya experimentado estas alucinaciones debido a un malentendido de su mensaje o una respuesta claramente incorrecta a su pregunta.
Litan dice que los datos de entrenamiento pueden dar lugar a respuestas sesgadas o objetivamente incorrectas, lo que puede ser un problema grave cuando las personas confían en estos bots para obtener información.
«Los datos de capacitación pueden dar lugar a respuestas sesgadas, fuera de la base o incorrectas, pero pueden ser difíciles de detectar, especialmente porque las soluciones son cada vez más creíbles y confiables», menciona Litan.
2. Falsificaciones profundas
Un deepfake usa IA generativa para crear videos, fotos y grabaciones de voz que son falsas pero toman la imagen y semejanza de otra persona.
Ejemplos perfectos son la foto viral generada por IA del Papa Francisco con una chaqueta acolchada o la canción Drake and the Weeknd generada por IA , que obtuvo cientos de miles de reproducciones.
«Estas imágenes, videos y grabaciones de voz falsos se han utilizado para atacar a celebridades y políticos, para crear y difundir información engañosa e incluso para crear cuentas falsas o tomar el control y acceder a cuentas legítimas existentes», menciona Litan.
Al igual que las alucinaciones, los deepfakes pueden contribuir a la difusión masiva de contenido falso, lo que lleva a la difusión de información errónea, lo cual es un problema social grave.
3. Privacidad de datos
La privacidad también es una preocupación importante con la IA generativa, ya que los datos del usuario a menudo se almacenan para el entrenamiento del modelo. Esta preocupación fue el factor principal que empujó a Italia a prohibir usar ChatGPT, alegando que OpenAI no estaba legalmente autorizado para recopilar datos de usuarios.
«Los empleados pueden exponer fácilmente datos empresariales confidenciales y patentados cuando interactúan con soluciones generativas de chatbot de IA», menciona Litan. «Estas aplicaciones pueden almacenar indefinidamente la información capturada a través de las entradas del usuario e incluso usar la información para entrenar otros modelos, lo que compromete aún más la confidencialidad».
Litan destaca que, además de comprometer la confidencialidad del usuario, la información almacenada también presenta el riesgo de «caer en las manos equivocadas» en caso de una brecha de seguridad.
4. Ciberseguridad
Las capacidades avanzadas de los modelos de IA generativa, como la codificación, también pueden caer en manos equivocadas, lo que genera problemas de ciberseguridad.
«Además de las amenazas de phishing y de ingeniería social más avanzadas, los atacantes podrían usar estas herramientas para generar códigos maliciosos más fácilmente», menciona Litan.
Litan dice que aunque los proveedores que ofrecen soluciones de IA generativa generalmente aseguran a los clientes que sus modelos están capacitados para rechazar solicitudes maliciosas de ciberseguridad, estos proveedores no equipan a los usuarios finales con la capacidad de verificar todas las medidas de seguridad que se han implementado.
5. Cuestiones de derechos de autor
Los derechos de autor son una gran preocupación porque los modelos de IA generativa se entrenan en cantidades masivas de datos de Internet que se utilizan para generar un resultado.
Este proceso de capacitación significa que los trabajos que no han sido compartidos explícitamente por la fuente original pueden usarse para generar contenido nuevo.
Los derechos de autor son un tema particularmente espinoso para el arte generado por IA de cualquier forma, incluidas las fotos y la música.
Para crear una imagen a partir de un aviso, las herramientas de generación de IA, como DALL-E, se referirán a la gran base de datos de fotos en las que fueron entrenados. El resultado de este proceso es que el producto final puede incluir aspectos del trabajo o estilo de un artista que no se le atribuyen.
Dado que los trabajos exactos en los que se entrenan los modelos de IA generativa no se divulgan explícitamente, es difícil mitigar estos problemas de derechos de autor.