Por Carmen Sánchez Pichardo*
Aunque la inteligencia artificial comenzó a desarrollarse desde la década de los 50 y 60, en los últimos diez años ha crecido exponencialmente. Existen dos tipos de modelos de lenguaje o modelos de inteligencia artificial, los de gran tamaño (LLM por sus siglas en inglés), como Chat GPT o Gemini; y los pequeños (SLM) que se desarrollan a nivel interno en una organización para cumplir con una función en particular.
Los LLM han democratizado el uso de la IA a nivel mundial, ya que con ellos cualquiera puede realizar una acción como generar una imagen, hacer una traducción o incluso crear una plataforma de comercio electrónico o una aplicación móvil. No obstante, si no tenemos conocimientos técnicos de cómo dar la instrucción al modelo de IA, entonces el resultado que obtendremos no será el deseado o tendrá fallos que no sabremos identificar.
Por eso es importante tener el conocimiento y la experiencia realizando esa tarea o función para ser capaces de programar la instrucción que la IA realizará por nosotros. En el caso de los modelos pequeños o agentes de IA que se crean a nivel interno en las organizaciones o empresas para automatizar procesos; esta transformación debe ir acompañada de la creación de lineamientos y códigos de ética que aplican los equipos de trabajo en el funcionamiento de los agentes de IA.
Esta nueva era tecnológica puede ser una oportunidad para todos de abordar temas centrales del uso de tecnología como son la transparencia, la responsabilidad, la sostenibilidad y aplicar valores centrados en el ser humano. Datos publicados este año en el Índice de Tendencias Laborales de Microsoft indican que 89% de los líderes empresariales en México planean incorporar agentes digitales como miembros de sus equipos durante 2025.
En este sentido, el uso ético de la tecnología debe ser la prioridad para que seamos nosotros, seres humanos, los que controlemos a la IA, y no al revés. La IA debe ser utilizada como una herramienta, pero en la parte ética y estratégica, es imprescindible que esté un humano que busque el bien común, de la empresa o de la comunidad.
Todos los integrantes de los equipos de trabajo deberán ser capacitados y tendrán que conocer cuáles son los términos de uso de los agentes de IA, el código ético a aplicar y los lineamientos y objetivos comunes a alcanzar con el uso de esta tecnología.
De acuerdo con la Norma mundial sobre la ética de la IA establecida por la UNESCO, existen cuatro valores fundamentales que deben sentar las bases para que los sistemas de IA trabajen por el bien común de la humanidad, las personas, las sociedades y el medio ambiente. En este sentido, todo lineamiento debe incluir el respeto, protección y promoción de los derechos humanos y las libertades fundamentales y la dignidad humana.
SUSCRÍBETE PARA LEER LA COLUMNA COMPLETA...