Inteligencia Artificial responsable para construir un futuro ético y transformador

Ética, desafíos, principios y su impacto en nuestra vida cotidiana

Nos encontramos en un momento emocionante dentro de la revolución tecnológica. La Inteligencia Artificial (IA) está transformando industrias, redefiniendo como vivimos y prometiendo soluciones a los grandes desafíos del mundo. Durante los últimos meses hemos visto cómo esta tecnología tiene el potencial de impactar a grandes empresas, ayudar en diagnósticos médicos, cuidar del medioambiente, e incluso ayudarnos en nuestras tareas diarias. Sin embargo, para que esta tecnología tuviera un impacto positivo en nuestras vidas, fue necesario crear parámetros de ética y responsabilidad que pudieran guiar un desarrollo que verdaderamente impactara a nuestro mundo y sociedad.

La rápida adopción de la IA presenta preguntas éticas fundamentales: ¿Cómo garantizamos que los algoritmos sean justos y libres de sesgos? ¿Cómo protegemos la privacidad de los datos en un mundo hiperconectado? ¿Cómo aseguramos que la IA se utilice para el bien común y no para fines perjudiciales?

La IA responsable no es solo una aspiración, sino una necesidad al hablar de este tipo de innovación. Sin una revisión cuidadosa de estos parámetros, el potencial de la Inteligencia Artificial para transformar podría verse comprometido.

¿Qué es la Inteligencia Artificial responsable?

El desarrollo responsable de la IA debe ser la base de la innovación en su ciclo de vida para asegurar que sea diseñada, construida, distribuida y utilizada de una manera segura, sostenible y ética. Para Intel, facilitar una IA ética y equitativa requiere de un enfoque integral que abarque a las personas, los procesos, los sistemas, los datos y los algoritmos con la finalidad de reducir los riesgos y optimizar los beneficios para nuestra sociedad (Intel, 2025). Esto va muy de la mano con la definición de ética en la IA ofrecida por la UNESCO que, en general, se centra en el desarrollo y aplicación de sistemas de IA de manera que respeten los derechos humanos, las libertades fundamentales y promuevan el bienestar social. Para ello, se debe seguir un marco normativo que promueva los valores y principios para garantizar tal comportamiento ético de las tecnologías de IA.

Y, claro, la IA depende, en su totalidad, de los datos con los que haya sido entrenada. Sus sesgos van a depender de los propios sesgos provenientes de sus datos de entrenamiento y reflejará, por lo tanto, lo alimentado por sus entrenadores. Por ende, la IA ética, sin duda, se deriva de la ética de sus propios entrenadores.

Pilares y principios para una IA responsable

Cada organización responsable tiene sus propios pilares y principios de acuerdo con su misión y valores. Sin embargo, al analizar varias propuestas de organizaciones de tecnología vemos cómo hay algunos puntos que se replican de manera similar. Algunas organizaciones externas, como la UNESCO (2022) y la OCDE (2025), también han establecido algunos principios clave en esta materia como la rendición de cuentas, el desarrollo y bienestar de las personas, la privacidad de los datos, entre otros.

En Intel, hemos integrado varios de estos principios fundamentales: el respeto de los derechos humanos; la supervisión humana en este tipo de tecnología; la transparencia y claridad de los algoritmos; seguridad y confiabilidad de los productos y soluciones; la protección de la privacidad de la información; la promoción de la inclusión y equidad; y el cuidado del medioambiente (Intel, 2025).

ChatGPT: ¿Qué es y cómo funciona esta inteligencia artificial?

ChatGPT: ¿Qué es y cómo funciona esta inteligencia artificial?

ChatGPT: ¿Qué es y cómo funciona esta inteligencia artificial?

ChatGPT: ¿Qué es y cómo funciona esta inteligencia artificial?

Ética y responsabilidad en la vida cotidiana

Existen ya varios ejemplos que ilustran la necesidad de estos parámetros de IA responsable y es posible que incluso Usted haya experimentado alguno de ellos. Los famosos “deepfakes”, cada vez más comunes, pueden ser usados para suplantar y falsificar información en situaciones delicadas. Otro uso indebido de la IA tiene que ver con la generación de voz, la cual puede ser usada para generar audios que suenan a nuestra propia voz, o llevar a cabo la vigilancia de nuestra actividad en algún sitio web o aplicación. En este caso, en Intel hemos desarrollado soluciones de medios de confianza para detectar este tipo de prácticas a través de un FakeCatcher en tiempo real (Intel, 2025).

En otras ocasiones, hemos visto cómo es que programas de Inteligencia Artificial dan respuestas erróneas, sesgadas e inclusive ofensivas a ciertos grupos. Estos incidentes generan controversia y demuestran la importancia de la IA responsable y la ética para evitar estas situaciones. Las organizaciones pueden tomar medidas preventivas para evitar que ocurra esto y garantizar que los modelos se entrenen con información diversa, de calidad y libre de sesgos, lo que permite dar respuestas más precias.

Estos ejemplos ponen en perspectiva la necesidad de establecer y ejercer lineamientos para el desarrollo y la implementación de la Inteligencia Artificial. Si bien las organizaciones no crean este tipo de tecnología para un uso incorrecto, es con estos pilares y buenas prácticas que se cuenta con guías para así lograr impactar de manera positiva a la mayor cantidad de personas. Todo ello para crear tecnología que cambie al mundo y enriquezca la vida de cada persona en La Tierra.

Asimismo, nosotros como consumidores, podemos tomar decisiones informadas sobre qué productos y servicios de IA utilizamos y, con ello, apoyar a las organizaciones que sí priorizan la ética y responsabilidad. También a las que impulsan la transparencia para, así, comprender qué procesos ocurren con los modelos de IA.

Inteligencia Artificial

Inteligencia Artificial / Andriy Onufriyenko

Inteligencia Artificial

Inteligencia Artificial / Andriy Onufriyenko

En Intel estamos comprometidos a mejorar la vida de las personas a través de la tecnología (Intel, 2025) y reconocemos que la IA responsable es vital para este gran proceso. Queremos inspirar a otros a generar un impacto positivo y esperamos que estos pilares de la IA responsable y ética sirvan de ejemplo para que cada vez más personas utilicen esta innovación para generar cambios significativos en el mundo.

Por: A. David Garza Marín, PhD. Asesor consultivo de Intel México

Eduardo Videgaray y El Estaca
Directo

La Corneta

con Eduardo Videgaray y El Estaca

Tu contenido empezará después de la publicidad

19:00h

21:00h

  • Emisoras

  • Programación

  • Playlists

  • Podcasts

  • Kika Edgar en la cabina Ya Párateana

  • La Corneta COMPLETA 28 de Abril del 2025

  • Así es ... estamos de vuelta

Ver más podcast
  • Música Continua con Paulina Valerio y Pedro Rincón

    Música Continua

    Paulina Valerio y Pedro Rincón

    21:00

  • El Tlacuache con Gabo Ramos y El Diablito

    El Tlacuache

    Gabo Ramos y El Diablito

    00:00

  • Música Continua con Luís Osorio 'El Capi'

    Música Continua

    Luís Osorio 'El Capi'

    03:00

Ver toda la programación
  • Lista oficial de LOS40 - México

    Lista oficial de LOS40

    Lista oficial de LOS40 México actualizada cada fin de semana

  • Lo último en POP latino

    Lo último en POP latino

    Lo más reciente de Pop Latino, sin trap ni reggeaton: No incluye Pop Español.

  • CARÍN LEÓN recomienda

    CARÍN LEÓN recomienda

    Las favoritas de la estrella mexicana

Compartir

Tu contenido empezará después de la publicidad