3 minutos de lectura.
Para entender cómo llegamos a la detección de los sesgos cognitivos en la IA, debemos recordar, en primer lugar, tres de las diez tesis propuestas por Carlos Scolari.
En particular, la primera, la tercera y la quinta tesis: “Tesis nº 1 – Todo lo que escribimos o decimos sobre la IA ya es viejo… Tesis nº 3 – La IA es una tecnología disruptiva que transforma los cimientos de la cultura y el trabajo humanos… y Tesis nº 5 – Resulta obligatorio conocer la historia oficial de la IA para poder comenzar a indagar y reconstruir sus otras historias”. Esto significa que hemos de tener en cuenta la rapidez con que se suceden los avances tecnológicos, el cambio cultural que produce la IA y la necesidad de conocer su historia y evolución.
Respecto de los sesgos cognitivos y su relación con la IA, seguiremos, básicamente, a dos autoras, Jessica Nordell (El fin del sesgo. Cómo podemos cambiar nuestra mente) y Kate Craword (Atlas de la inteligencia artificial. Poder, política y costos planetarios).
Para Nordell, los sesgos cognitivos funcionan como un circuito: comienzan cuando interiorizamos conocimientos culturales del mundo que nos rodea (familia, medios de comunicación, profesores, entornos que nos bombardean con información de grupos de personas).
Con el tiempo, estos sesgos se transforman en estereotipos arraigados. Se constituyen en un modo de pensar irracional y poco ético. Pero no olvidemos que los sesgos pueden tornarse y, sucede a menudo, en modos inconscientes de pensar. (Aunque suene como un oxímoron, no lo es. Cuesta mucho esfuerzo reconocer los propios sesgos). Los sesgos, legados del pasado, producen un abismo entre la palabra y los hechos, es decir, producen mentiras o desinformación.
Crawford señala, asimismo, que los sesgos son un síntoma de aflicción más profunda: una lógica normativa centralizadora y de largo alcance que se usa para determinar en qué se tendría que mirar y en cómo evaluar el mundo. Esto coincide con los conceptos estudiados por la comunicación política respecto de tribalismo y polarización.
Para Crawford, la IA no es ni I ni A. Es una forma corpórea, hecha de recursos naturales, combustible, mano de obra, infraestructuras, logísticas, historias clasificaciones. Los sistemas de IA no son autónomos, racionales ni capaces de discernir algo sin un entrenamiento intenso, con errores, conjunto de datos o reglas y recompensas predefinidas. También, insiste en que la IA es fundamentalmente política. Tenemos que preguntarnos: 1) qué se está optimizando, 2) para quién y 3) quién toma las decisiones.
Recordemos que la IA fue alimentada por una gran mayoría de estadounidenses, varones, blancos y, fundamentalmente, ingenieros. El software siempre muestra la esencia del grupo que lo creó, sostiene Nordell.
Entonces, este nace con los sesgos propios de etnia, género, edad, profesión, que constituyen los más frecuentes cuando usamos cualquier tipo de IA y que también son los más frecuentes en la vida cotidiana, privada y pública.
Por otra parte, Guadalupe Nogués (Pensar con otros. Una guía de supervivencia en tiempos de posverdad) explica que un sesgo cognitivo provoca defectos en el razonamiento. Una falacia es un argumento no válido que aparenta serlo. Estos dos conceptos van muchas veces de la mano, ya que muchas falacias ‘funcionan’ porque aprovechan sesgos que tenemos.
Textos falaces, deep fakes, sesgos cognitivos conscientes o no llevan, hoy más que nunca, a la necesidad de debates éticos y regulatorios para evitar la desinformación.
*Crédito de la foto: Viralyft en Unsplash.