Si todavía no lo saben les cuento que a mí me gustan los datos científicos, los datos confirmados. Eso de que alguien dijo, no me vale.
Dicho esto hay que aclarar que aun cuando parece que un estudio es comprobado científicamente debemos asegurarnos de que realmente sea serio y que la comunidad científica haya revisado y aprobado el tema. Lo que se conoce como peer review.
La noticia
Cuando uno ve algo en The Economist sobre un estudio de Stanford, pues asume que es todo muy correcto.
Así que si vemos el titular: «Avances en inteligencia artificial son usados para encontrar signos de sexualidad», con el subtítulo «Las máquinas que leen rostros están en camino». Lo que da es terror.
Uno no puede evitar pensar en Skynet y el fin de la humanidad. Y en este caso específico, para las personas LGBT+… Bueno, realmente sólo para las L y G, pero ya verán a qué me refiero.
Por ahora nos quedamos con ese titular. El estudio aún no ha sido publicado en el Journal of Personality and Social Psicology, y básicamente dice que un programa de reconocimiento facial es capaz de identificar la sexualidad de las personas.
La tecnología y la sexualidad
Contentos de ver cómo nuestro trabajo a inspirado el debate. Sus opiniones serían más fuertes si hubieran leído nuestro estudio y notas.
La tecnología es una herramienta impresionante con un sinfín de utilidades. Pero como los humanos somos así, no todas esas utilidades son positivas. A veces usamos los poderes para el mal.
El estudio del que hablamos, ese que salió primero en The Economist y que es de Stanford, asegura que tienen una aplicación de inteligencia artificial (que en adelante será referida como AI), de reconocimiento facial capaz de acertar si la persona es gay o lesbiana.
Cuando hablamos de reconocimiento facial nos referimos a programas que analizan rasgos del rostro de las personas. Como los que vemos mucho en las series policiacas de Estados Unidos. O, la que te permitirá desbloquear tu iPhone X (si te sobran mil dólares para comprarlo).
Entonces uno escucha que eso tiene la capacidad de acertar si una persona es homosexual, pues da un poco de miedo. Y no necesariamente por esa distopia en la que las máquinas van a acabar con nosotros.
Si no porque ¿ustedes se imaginan gobiernos como el de Chechenia, o el de Putin pensando que esta herramienta podría estar a su alcance?
La polémica
Eso fue precisamente lo que pensaron los investigadores, Michal Kosinski y Yilun Wang y, dicen que, después de debatir mucho decidieron que debían publicarlo para alertar sobre esto.
El problema es que organizaciones como GLAAD o Human Rights Campaign (HRC) revisaron el estudio y dicen que es «ciencia basura».
¿Por qué?, se preguntarán ustedes. Bien, la razón es que, para comenzar el AI sólo es capaz de identificar si la persona es gay o lesbiana, excluyendo por completo el resto de las letras de la comunidad LGBTQI, como a los bisexuales, pansexuales o asexuales, por ejemplo.
Además la muestra, que se considera bastante pequeña, sólo consistía de personas de raza blanca. Y para rematar lo que hicieron fue ofrecer al AI información sobre estas personas sacada de una popular aplicación de citas.
La ciencia
Como todos vimos en la escuela para hacer un estudio científico hay que seguir el método científico.
Entonces cuando tienes un estudio donde aplicas los datos a una muestra tan excluyente, sin tomar en cuenta otras variables y ofreces los resultados con cierto aire de alarmismo, pues la verdad es que sospechoso es lo mínimo que uno puede pensar.
Para ser justos los investigadores insisten en que su intención es la de proteger a la comunidad LGBT+ de la posibilidad de que este tipo de tecnología sea empleada de manera negativa.
Pero si tomamos en cuenta la forma en que excluyeron al resto de la comunidad y a otras razas. Sumado a que el tipo de gente que utilizaría un AI para eso, no necesita realmente tener a la ciencia de su lado.
Y si lo necesitaran para intentar parecer legítimos harían como con Andrew Wakefield, el (ahora) ex doctor que aseguró que las vacunas estaban ligadas al autismo. (Que, por dios, es infundado y peligrosísimo).
Estos investigadores descubrieron que el AI era capaz de acertar en un 81% al ver una foto del perfil de la app de citas de todos los hombres que analizó. Menos efectivo con las mujeres, en un 71%.
Cuando vio cinco fotos, el porcentaje mejoró en 91% para los hombres y 83% para las mujeres.
Las citas
Los investigadores, luego de las reacciones negativas, lideradas por GLAAD y HRC, admitieron las fallas:
El estudio muestra que puedes distinguir entre individuos blancos gay o heterosexuales. No muestra que lo mismo aplica con otras etnias. Sin embargo pensamos que esto es, desafortunadamente, posible. No revisamos si se puede predecir si alguien es bisexual por su rostro. Pero esto no ivalidad los resultados de ninguna manera. Aún demostramos que puede distinguir entre personas homosexuales y heterosexuales.
GLAAD, por suparte, insite que:
La investigación identificó patrones de características físicas en una pequeña muestra de fotografías que la gente subió a sitios de citas en internet, no que el reconocimiento facial puede detectar si alguien es gay o lesbiana.
El comunicado sigue:
La Universidad de Stanford y los investigadores invitaron a las organizaciones LGBTQI para obtener feedback, pero cuando nuestras inquietudes fueron presentadas, ellos admitieron las limitaciones del estudio y de manera irresponsable procedieron con el mismo.
Ahora el estudio está siendo investigado
Luego de las preocupaciones y reclamos de GLAAD y HRC, entre otras organizaciones, la American Psycological Association (Asociación Americana de Psicología – APA) decidió hacer una revisión adicional al estudio.
Se supone que la investigación fue revisada por otros científicos (peer review) y aun así nadie pensó que todos los objetos de muestra eran personas blancas en sitios web de citas, o que se limitaba sólo a hombres gay y a mujeres lesbianas.
Entonces uno tiene que preguntarse si realmente a nadie se le ocurrió que todos estos factores son fundamentales o si se les presentó como un simple dato de que el AI es capaz de identificar estos datos específicos, en lugar de «El reconocimiento facial es capaz de identificar la homosexualidad».
Así que sí, seguro Kosinski y Wang tenían las mejores intenciones. Pero la homofobia realmente no necesita excusas para los homofóbicos. Y de hecho el estudio ya es usado en «comedia»
Yo no sé si sentirme aliviada de que la bisexualidad es tan insignificante que no se toma en cuenta para un estudio supuestamente tan importante y revelador. O si ofenderme.
¿Tienes Telegram instalado? Recibe nuestros artículos al momento en tu teléfono suscribiéndote a nuestro canal.