Tag

inteligencia artificial

Browsing

El miércoles 5 de julio de 2023, se publicó la Ley N° 31814 en El Peruano, siendo la primera en América Latina que promueve el uso ético y responsable de la inteligencia artificial (IA) para impulsar el desarrollo económico y social del país, asegurando el respeto a los derechos humanos. 

Si bien la IA tiene el potencial de mejorar la productividad, la innovación y la competitividad empresarial, también plantea desafíos y riesgos que requieren regulación y mitigación en áreas como el empleo, la privacidad, la seguridad, la equidad y la responsabilidad.

Kerim Rumie, Country Manager de GeoVictoria Perú y Ecuador, empresa líder en la automatización de gestión de asistencia en más de 40 países, gracias a su capacidad de innovación y adaptabilidad de nuevas tecnologías y legislación laboral, comparte alcances de la nueva ley, y claves relevantes para que las empresas puedan adaptarse a ellas.

  • ADAPTAR LOS PRINCIPIOS DE LA IA: La ley establece principios que deben orientar el uso de la IA en el país, abarcando aspectos como la seguridad basada en riesgos, la pluralidad de participantes, la gobernanza de internet, la sociedad digital, el desarrollo ético, la transparencia, la no discriminación, la protección de datos personales, la confianza y la responsabilidad compartida. Las empresas deben entender y adherirse a estos principios, asegurándose de que sus sistemas y aplicaciones de IA los cumplan y fomenten.
  • IMPLEMENTAR MEDIDAS DE SEGURIDAD Y CALIDAD: Los sistemas y aplicaciones de IA deben tener medidas técnicas y organizativas para asegurar su seguridad, calidad, confiabilidad, interoperabilidad y eficiencia. Estas medidas deben basarse en los riesgos relacionados con los derechos humanos, salud, seguridad y medio ambiente asociados al uso de la IA. Las empresas deben evaluar estos riesgos y tomar las medidas necesarias para prevenirlos o reducir su impacto.
  • GARANTIZAR LA TRANSPARENCIA Y EXPLICABILIDAD: Además, estos sistemas de IA deben ser transparentes y explicables para usuarios y autoridades. Las empresas deben brindar información sobre el funcionamiento, objetivos, datos, algoritmos, criterios y resultados de la IA, así como las posibles consecuencias adversas. Además, deben ofrecer mecanismos para que los usuarios comprendan y cuestionen las decisiones o acciones tomadas por la IA.
  • RESPETAR LA NO DISCRIMINACIÓN Y LA INCLUSIÓN: Con el principio de no discriminación e inclusión, se busca evitar sesgos y prejuicios que afecten a grupos o individuos. Las empresas deben garantizar que los datos, algoritmos y criterios utilizados por la IA sean representativos, diversos, equitativos y justos. Además, deben fomentar el acceso y la participación de todos los sectores sociales en el uso y desarrollo de la IA.
  • PROTEGER LOS DATOS PERSONALES: La ley exige que los sistemas y aplicaciones de IA protejan los datos personales procesados o generados, cumpliendo con la legislación vigente sobre protección de datos. Las empresas deben obtener el consentimiento informado de los titulares de datos para el uso de la IA, garantizando la seguridad, confidencialidad e integridad de dichos datos. También deben respetar los derechos de acceso, rectificación, cancelación y oposición de los titulares con relación a sus datos personales.
  • ASUMIR LA RESPONSABILIDAD COMPARTIDA: La ley establece la responsabilidad compartida de los usuarios, desarrolladores, proveedores y operadores de sistemas y aplicaciones de IA en cuanto a su uso y efectos. Las empresas deben asignar y definir responsabilidades para cada actor involucrado en el ciclo de vida de la IA, implementando mecanismos de rendición de cuentas, supervisión y control. Además, deben anticipar y reparar cualquier posible daño o perjuicio que la IA pueda causar a las personas o al medio ambiente.

EL DATO | INTELIGENCIA ARTIFICIAL EN LA GESTIÓN DE TRABAJADORES 

“La nueva ley de IA brinda una oportunidad para las empresas que deseen mejorar la gestión de recursos humanos mediante el uso de soluciones innovadoras que faciliten el control de asistencia y puntualidad de los empleados, especialmente en modalidades remotas o flexibles. Estas soluciones permiten registrar la asistencia desde cualquier lugar y dispositivo, con seguridad, transparencia y confiabilidad, respetando los principios y requisitos que establece la ley.”, comenta Kerim Rumie, Country Manager de GeoVictoria para Perú y Ecuador.

SOBRE GEOVICTORIA

GeoVictoria es una empresa especializada en control de asistencia que opera en más de 40 países. Su misión es ayudar a sus clientes en la adaptación de nuevas herramientas tecnológicas para la gestión y control de asistencia. Esto implica acompañarlos durante el proceso de transición hacia estos nuevos desarrollos para asegurar que sean aceptados correctamente por parte de los colaboradores en diferentes áreas productivas.

La arquitectura Transformer es una arquitectura de red neuronal utilizada en modelos de lenguaje natural, como BERT y GPT, que ha demostrado ser altamente efectiva en una amplia variedad de tareas de procesamiento de lenguaje natural. Fue presentada en 2017 en el artículo “Attention is All You Need” de Google AI.

La arquitectura Transformer se basa en el concepto de atención, que permite que la red neuronal se centre en partes específicas de una secuencia de entrada en lugar de tratar toda la entrada al mismo tiempo. En lugar de utilizar redes recurrentes o convolucionales, como se hacía anteriormente, la arquitectura Transformer utiliza múltiples capas de atención para procesar la entrada.

Inicios de la arquitectura Transformer

La arquitectura Transformer fue presentada en el artículo “Attention is All You Need” publicado en 2017 por Google AI. En este artículo, los autores propusieron una nueva arquitectura de red neuronal para modelos de lenguaje natural que se basa en el concepto de atención en lugar de las redes recurrentes o convolucionales que se habían utilizado previamente.

Antes de la arquitectura Transformer, los modelos de lenguaje natural utilizaban principalmente redes neuronales recurrentes, como las redes LSTM, para procesar secuencias de entrada. Sin embargo, estas redes tenían limitaciones en cuanto a su capacidad para procesar secuencias largas y para recordar información a largo plazo. Además, el entrenamiento de estas redes era lento y requería mucho tiempo y recursos.

La arquitectura Transformer aborda estas limitaciones al utilizar múltiples capas de atención para procesar la entrada. La atención permite que la red se centre en partes específicas de la entrada en lugar de tratar toda la entrada al mismo tiempo, lo que reduce el ruido y ayuda a la red a comprender mejor la entrada.

Además, la arquitectura Transformer utiliza bloques residuales y normalización de capas para ayudar a la red a aprender más rápido y de manera más efectiva. Esto resulta en una arquitectura de red neuronal más eficiente y efectiva para procesar lenguaje natural que las arquitecturas anteriores.

Desde su introducción en 2017, la arquitectura Transformer ha sido ampliamente adoptada en la comunidad de inteligencia artificial y se ha utilizado en muchos modelos de lenguaje natural de vanguardia, como BERT y GPT-3. La arquitectura Transformer ha demostrado ser altamente efectiva en una amplia variedad de tareas de procesamiento de lenguaje natural y sigue siendo un área de investigación activa en la comunidad de inteligencia artificial.

Que debo saber para aprender Arquitectura Transforme

La arquitectura Transformer está desarrollada en el lenguaje de programación Python utilizando la biblioteca de aprendizaje profundo TensorFlow de Google. TensorFlow es una biblioteca de software libre y de código abierto para el desarrollo y entrenamiento de modelos de aprendizaje automático y redes neuronales.

TensorFlow permite a los desarrolladores construir y entrenar redes neuronales de forma escalable y eficiente en una variedad de plataformas de hardware, incluyendo CPU, GPU y TPU. Además, TensorFlow proporciona herramientas para visualizar el proceso de entrenamiento y depurar modelos, lo que ayuda a los desarrolladores a mejorar la precisión y el rendimiento de sus modelos.

La arquitectura Transformer también se puede implementar en otros lenguajes de programación, como PyTorch, que es una biblioteca de aprendizaje profundo similar a TensorFlow desarrollada por Facebook. Sin embargo, TensorFlow es la biblioteca de aprendizaje profundo más utilizada en la actualidad y es compatible con una amplia variedad de hardware, lo que la convierte en una opción popular para la implementación de la arquitectura Transformer.

La atención funciona mediante la asignación de pesos a cada parte de la entrada, lo que permite a la red centrarse en las partes más importantes y omitir las partes irrelevantes. Esto reduce el ruido y ayuda a la red a comprender mejor la entrada. Además, la arquitectura Transformer utiliza bloques residuales y normalización de capas para ayudar a la red a aprender más rápido y de manera más efectiva.

 

En resumen, la arquitectura Transformer es una arquitectura de red neuronal que utiliza la atención para procesar la entrada y ha demostrado ser altamente efectiva en una amplia variedad de tareas de procesamiento de lenguaje natural.