¿Es posible eliminar los prejuicios de los sistemas de IA generativa?
Signs for artificial intelligence at the AI avenue at the VivaTech conference in Paris, France, on Thursday, May 23, 2024. The annual startup and technology events runs until May 25. Photographer: Benjamin Girette/Bloomberg via Getty Images

Al reflexionar sobre los prejuicios que vienen atados a la inteligencia artificial, nos percatamos de una realidad ya bien conocida: hemos perdido el control total sobre los datos. Por ejemplo, si le pedimos a ChatGPT que genere una imagen de un “líder de negocios”, inmediatamente produce la imagen de un hombre. Recientemente, le pedí también que me contara un chiste sobre mexicanos y respondió con un chiste sobre lo malos que son para el fútbol. Esto subraya el punto principal: estamos interactuando con una tecnología que aprende de nosotros, absorbe todo lo que le decimos y aprende sin comprender necesariamente el impacto de la información que proporciona a los usuarios. 

Los prejuicios se refieren a opiniones previas que perjudican a alguien o algo sin un conocimiento directo, y no se limitan únicamente a aspectos físicos; también se manifiestan en decisiones que deben tomarse a lo largo del tiempo, fundamentadas en la filosofía que ha moldeado la evolución del pensamiento social. Por otro lado, los sistemas de inteligencia artificial generativa son aquellos capaces de crear textos, imágenes y otros contenidos a partir de los datos con los que son alimentados. 

IA sin máscara: explorando sesgos y equidad

Para controlar efectivamente estos sesgos, sería necesario que una persona estuviera constantemente supervisando, regulando y diferenciando entre contenidos prejuiciosos y no prejuiciosos; aunque ni siquiera eso funcionaría debido a que los humanos por naturaleza cargamos con miles de prejuicios encima, seamos conscientes de ello o no. Además, el principal objetivo de la IA es reducir la necesidad de intervención humana, facilitando o reemplazando nuestro trabajo con el fin de eliminar nuestra necesidad de participar. Planear un sistema que requiera supervisión humana constante para controlar prejuicios contradice este propósito fundamental.

"Líder de negocios" / Fuente: ChatGPT

Por otro lado, el acceso a la historia de comunidades enteras por parte de la IA implica que a menudo se entrena con estereotipos y conjuntos de datos que posteriormente traduce a los usuarios. Por ejemplo, si se solicita una imagen de una persona de una etnia específica, la inteligencia artificial aprende a asociar ciertas características demográficas con el resultado proporcionado digitalmente. Esto ocurre porque se basa en los patrones encontrados en sus datos de entrenamiento, que pueden incluir estereotipos profundamente arraigados.

Cuando se trata de cultura y diversidad étnica, regular los prejuicios generados por la inteligencia artificial se vuelve poco posible, ya que estos prejuicios dependen del contexto de cada sociedad. Lo que puede ser considerado un prejuicio para algunos, para otros puede ser algo completamente normal y natural. Esta variable hace que se vuelva difícil establecer un estándar universal que defina cómo eliminar los prejuicios de manera efectiva en todos los contextos. 

"Bromas" / Fuente: ChatGPT

 

En la imagen anterior estamos discutiendo aspectos sencillos, como chistes que realmente no son de gran importancia. Pero al compartir esta información, estamos transmitiendo características generalizadas de diversas sociedades que tal vez no apliquen universalmente. A partir de estos detalles menores, podemos ampliar nuestra perspectiva hacia temas más serios y significativos, haz la prueba y analiza los resultados. 

Eliminar los prejuicios de la inteligencia artificial y crear un sistema que pueda identificarlos, regularlos y clasificarlos según la ubicación geográfica de los usuarios es una tarea que demanda recursos económicos significativos y actualizaciones constantes, algo que no todas las empresas pueden permitirse. Por ejemplo, es cierto que gigantes como Amazon pueden tener equipos humanos capacitados supervisando las máquinas para asegurar su correcto funcionamiento. Sin embargo, la mayoría de las empresas en línea no cuentan con los recursos necesarios para implementar herramientas completamente libres de prejuicios. 

Aludiendo a compañías como Amazon, como se mencionó anteriormente, algunos sostendrán que es factible implementar las mismas medidas en todas las compañías. Otros podrían argumentar que es posible lograrlo a través del monitoreo de algoritmos y aumentando la transparencia en los sistemas y regulaciones. Pero la realidad es que alcanzar una solución completa es improbable debido a los distintos intereses involucrados. Si bien es cierto que los prejuicios generados por la inteligencia artificial pueden reducirse, la eliminación total de estos nunca será completamente posible.

Un caso relevante es el de ChatGPT, que intentó desarrollar una herramienta capaz de detectar textos generados por inteligencia artificial, pero tuvo que descontinuarla debido a que los volúmenes de datos excedieron la capacidad de procesamiento humano. Este ejemplo ilustra un problema más grande: si los mismos creadores enfrentan dificultades para manejar la información que generan sus herramientas, ¿cómo podemos esperar un control efectivo sobre los prejuicios inherentes? Intentar regular estos prejuicios incluso podría resultar en su incremento. 

Emilio Ferrera, profesor de Ciencias de la Computación y Comunicación en la Universidad del Sur de California, abordó en su artículo “Eliminating Bias in AI May Be Impossible” cómo las computadoras aprenden de manera que profundizan los prejuicios existentes al entregar resultados basados en lo que procesan. Ferrera destaca que los sistemas de inteligencia artificial generativa pueden tener prejuicios desde su diseño para beneficiar a determinados grupos, como las instituciones gubernamentales. Esto plantea todavía más duda sobre cómo y dónde deberían ser regulados y controlados estos sistemas. 

El profesor Ferrera sugiere que una posible solución radica en una “justicia algorítmica” y en prácticas que hagan el entrenamiento de las máquinas más transparente y alineado con los principios humanos. También menciona que OpenAI ha adoptado el enfoque de contar con empleados humanos para clasificar los datos y la información, lo cual puede ayudar a mitigar algunos de estos prejuicios. 

Lo mismo ocurre en el ámbito periodístico, donde se están utilizando sistemas de IA para la creación de artículos. Esta práctica conlleva a varios problemas, principalmente debido a los sesgos en la información que resultan de la selección de los datos utilizados. Los artículos generados a menudo incluyen detalles históricos que presentan una sola perspectiva, omitiendo una visión completa y equilibrada. Además, no hay diversidad en los datos con los que se entrenan estos sistemas, lo que puede contribuir a la perpetuación de estereotipos y prejuicios. Por último y no menos importante, hay que tener en cuenta la facilidad con la que esta tecnología puede ser utilizada para manipular información. 

Por otro lado, es importante reconocer que al utilizar sistemas de inteligencia artificial generativa y mencionar temas como “suicidio” u otros temas sensibles, estos sistemas tienen restricciones establecidas para evitar generar contenido dañino, discriminatorio o que viole la privacidad. Esto demuestra que estas máquinas pueden seleccionar sobre qué temas es apropiado conversar y cuáles no. Sin embargo, existe una contradicción: por un lado, se moderan ciertos contenidos, mientras que por otro, hay aspectos importantes de la sociedad que se excluyen de la discusión. Adicionalmente, estos sistemas pueden crear imágenes que reflejan características específicas de las personas basadas en su ubicación, incorporando rasgos físicos y cualidades que, en gran medida, pueden alimentar los problemas mencionados anteriormente. 

En conclusión, es imposible eliminar completamente los prejuicios inherentes en los sistemas de inteligencia artificial generativa, ya que estos sistemas son creaciones humanas y, por ende, reflejan nuestras propias limitaciones y sesgos.  Los seres humanos, influenciados por contextos culturales específicos, creencias, tradiciones, e historias particulares, diseñan la IA de acuerdo con sus propias percepciones y experiencias. Además, la diversidad limitada dentro de las empresas y las variadas interpretaciones de lo que constituye un prejuicio, hacen mayor este problema. 

Como sociedad, enfrentamos el desafío de aprender a utilizar estos sistemas de manera transparente y crítica, evitando otorgarles un poder absoluto. Aunque la inteligencia artificial es una herramienta útil que puede optimizar tareas y profundizar en análisis que de otro modo no realizaríamos, también está plagada de sesgos y omisiones que pueden distorsionar y omitir aspectos importantes de la historia de generaciones enteras. 

Todas las profesiones deben colaborar para crear soluciones que contribuyan a la evolución humana y aseguren que la tecnología sirva al hombre y no al revés. ¿Qué papel jugarán los maestros, abogados, periodistas y otros profesionales en la configuración de un sistema en el que la tecnología complementa y no suplanta el juicio humano? Debemos ser conscientes de a quién beneficia la programación de la IA y cuestionar cómo sus juicios de valor fueron creados, preguntando y entendiendo sus procesos de aprendizaje y limitaciones.
 

VAVEL Logo