Tu rostro podría revelar tus preferencias políticas. Esta frase suena muy estilo Black Mirror; futurista y distópica, con una pizca de Lombroso. Pero, a diferencia de aquella serie, no se trata de un concepto imaginado por un productor o un guionista, sino que deviene de un informe científico. De hecho, el dato surge de un estudio liderado por Michal Kosinski, profesor de la Universidad de Stanford. “Nuestro paper muestra que el reconocimiento facial puede predecir la orientación política con fotos sin expresión, tipo pasaporte, sin pelo facial, joyas o maquillaje. No es solo la autorrepresentación la que lo muestra”, explicó en un reciente hilo en X.

El informe concluye que los algoritmos de reconocimiento facial pueden predecir la orientación política de las personas con una precisión que, cuanto menos, da que pensar: un 72 por ciento de acierto. El estudio, que fue publicado en la revista Scientific Reports, invita a preguntarse sobre la implicancia que esto podría tener sobre la privacidad y el uso ético de esta tecnología.

Un algoritmo de alta precisión

Para realizar el estudio, publicado en Scientific Reports, se analizaron más de un millón de imágenes de redes sociales (como Facebook y apps de citas). Esas fotos fueron analizadas por un algoritmo de reconocimiento facial ampliamente utilizado y se descubrió que ese sistema podía predecir correctamente la ideología política autodeclarada de una persona el 72% de las veces. El estudio ha sido validado en forma independiente por otro grupo de investigadores daneses, que llegaron a conclusiones similares.

Este nivel de exactitud superó notablemente al 55% obtenido por observadores humanos y al 66% de un cuestionario de personalidad de 100 ítems. Dato no menor: la precisión del 72% se mantuvo consistente incluso al controlar variables como edad, género y etnia, y fue similar en diferentes países como Estados Unidos., Canadá y Reino Unido.

Implicaciones éticas y de privacidad

El estudio generó cuestionamiento o dudas sobre la privacidad y el potencial uso indebido que podría hacerse de esta tecnología. Kosinski remarcó que no desarrolló el algoritmo para predecir rasgos íntimos y habló sobre la necesidad de que haya una regulación estricta antes de su aplicación comercial o gubernamental. “Los algoritmos pueden clasificar a las personas basándose en rasgos íntimos de manera más precisa que los humanos, lo que introduce riesgos significativos para la privacidad y las libertades civiles”, afirmó el investigador en una entrevista realizada por el portal de la universidad de Negocios de Stanford.

Esta tecnología podría ser utilizada para la vigilancia y discriminación política. La capacidad de predecir la orientación política de una persona a partir de una imagen plantea riesgos de abuso, especialmente en contextos autoritarios.

La idea de que las características faciales pueden revelar información tan íntima revive debates similares a los de la frenología y la fisiognomía, aunque respaldados por tecnologías avanzadas. Por eso mismo, Kosinski subraya que su estudio pretende alertar sobre los riesgos y no promover el desarrollo de tales herramientas sin un marco regulatorio adecuado.

Algunos críticos argumentan que los resultados pueden estar sesgados por los datos utilizados y las características demográficas subyacentes. La homogeneidad de los datos de entrenamiento podría limitar la generalización de los resultados para poblaciones más diversas. El estudio deja en claro la necesidad de que haya un debate sobre este tema y se establezcan regulaciones sobre el uso de la inteligencia artificial en el reconocimiento facial.

El avance de esta tecnología plantea desafíos para la privacidad y la ética. De ahí que el informe realizado pone de relieve la necesidad de concebir una regulación adecuada y un debate público sobre el uso responsable de la inteligencia artificial. A medida que estas tecnologías se integran más en nuestra vida cotidiana, es clave encontrar un equilibrio entre los potenciales beneficios y la protección de los derechos individuales. Si no se toman medidas adecuadas, podríamos enfrentarnos a un futuro donde nuestra privacidad y autonomía se vean gravemente comprometidas.

Leave a Reply

Your email address will not be published. Required fields are marked *