En la era del algoritmo muchas de las decisiones cotidianas las toma un modelo matemático.

La selección de nuestro CV para una entrevista de trabajo, ya no las toma ya un humano sino un modelo matemático. Así como las decisiones de nuestra actividad laboral y la vida cotidiana.

Esto debería conducir a una mayor igualdad ya que todo el mundo es juzgado en base a los mismos criterios, aunque muchas veces ocurre lo contrario: los modelos son opacos, no están sujetos a regulación, con frecuencia están basados en hipótesis erróneas y refuerzan prácticas discriminatorias en los sectores más débiles de la sociedad.

Esta discriminación siempre ha existido, en la era digital se puede implementar de manera más eficiente e impersonal.

Los seguros y su prima mayor está justificada por un mayor riesgo, estimado sobre datos precedentes de personas con características similares.


En los complejos modelos de las aseguradoras

Para fijar la prima de un seguro está en función de las características del solicitante:

  • Si la persona es mayor pagará más seguro de salud.
  • Un conductor con poca experiencia pagara más seguro de automóvil.
  • En ambos casos, la prima superior está justificada por un mayor riesgo, lo cual es estimado sobre datos históricos de personas con características similares.

Pero los datos también muestran que las personas de renta más baja tienen mayor riesgo de enfermedad, ¿es lícito cobrarles una prima más alta?

El modelo matemático, en la “edad” o “nivel de renta” son variables predictivas que se tratan por igual para afinar y mejorar la predicción. Sin embargo, la ética obliga a poner límites a la eficiencia de dichos algoritmos, y condiciona por ejemplo qué variables son susceptibles de ser utilizadas. Con frecuencia los modelos utilizan proxys: variables supuestamente correlacionadas con otras de las que no disponen de información suficiente. Por ejemplo, usar el código postal como proxy del nivel de renta. El abuso de esta práctica produce modelos estadísticos cuyos datos de aprendizaje, conducen a predicciones erróneas. Cómo dicen en la jerga: si metes basura, sacas basura.


El proyecto de la transparencia de la web

Fue desarrollado por la Universidad de Princeton, es una iniciativa para detectar este tipo de modelos discriminatorios, evaluando cómo las compañías utilizan los datos de consumidores, garantizando la privacidad y la ética en su uso.
Una nueva visión en RH; Compartir datos es necesario para el desarrollo de muchas aplicaciones beneficiosas y que permite una gestión más eficiente.

  • Compartir datos es necesario para el desarrollo de muchas aplicaciones beneficiosas y no sólo acepta una gestión más eficiente de los recursos comunes sino que hace avanzar por ejemplo en la investigación médica.
  • Por ello, es importante garantizar que las bases de datos que se hacen públicas sean anonimizadas de manera robusta, es decir, que no sea posible la identificación de un individuo con información parcial.
  • Muchas bases de datos en el ámbito de las comunicaciones y las finanzas se han demostrado vulnerables en este sentido, y permiten por ejemplo averiguar el domicilio de una persona simplemente a partir de una foto en la que se la vea salir de un taxi.

La recopilación de datos en las grandes corporaciones y sus ventajas estratégicas

  • Recopilar datos de sus usuarios de manera masiva, las coloca en una situación inmensamente privilegiada frente al resto de la sociedad.
  • Conocer por ejemplo los estados de ánimo, en redes social con la modificación de algoritmos, permitió a Facebook detectarlo, así como propagarlos en una población.
  • El experimento recibió duras críticas por no contar con la autorización de los usuarios, pero reveló el inmenso poder de los algoritmos en la red social, que fácilmente podrían influenciar el resultado de unas elecciones de cualquier tipo.

Proyectos que promueven el uso del Big Data para el bien común, frente a una visión de prácticas abusivas

  • El Open Algorithms, liderado por Alex Pentland, del MIT Media Lab, propone nuevas formas de intercambio de información para garantizar la privacidad de los datos personales, a la par de permitir el funcionamiento seguro de aplicaciones colaborativas con datos compartidos.
  • Además, se insiste en que los algoritmos matemáticos que traten con estos datos sean públicos y auditables.
  • Hay un creciente papel estratégico de apoyo, que juegan estos modelos matemáticos en la toma de decisiones.
  • Aunque no todo el mundo pueda tener los conocimientos técnicos para entender su funcionamiento en detalle, es deseable que una mayoría no sólo sea capaz de manejar aplicaciones con datos para su uso personal, sino que entienda sus implicaciones en un contexto más amplio.
  • Por ello el uso de analytics en el responsable de la gestión de personas, se vuelve muy importante para una toma de decisiones adecuada, lo vemos en la reciente encuesta de las 9 tendencias de la tecnología digital, donde destaca dicha atracción en los expertos de RH.
  • Además, las autoridades competentes han de crear mecanismos de auditoría para garantizar la transparencia en el funcionamiento de dichas herramientas.