Usar predicciones de “big data” puede discriminar al consumidor

Fuente: The Wall Street Journal
publicado
DURACIÓN LECTURA: 2min.

La Comisión Federal de Comercio (FTC) de Estados Unidos ha advertido a las empresas que extremen la prudencia en la aplicación comercial que hacen de la información de los consumidores para evitar casos de discriminación social. En un informe reciente, el regulador americano señala varios casos en los que la falta de precauciones en alguna de las fases de recogida y análisis propias de las técnicas de “big data” ha perjudicado a las personas.

En sus conclusiones, la FTC advierte a las empresas que correlación no es lo mismo que causalidad y las anima a que, antes de aplicar los resultados obtenidos sobre los perfiles de los consumidores y sus gustos, se pregunten por la exactitud de las predicciones o por el alcance real para los usuarios, según explica The Wall Street Journal.

Entre los ejemplos de desviación que incluye este documento, se encuentra la selección de candidatos a puestos de trabajo según el prestigio de la universidad o escuela en que se han graduado, un factor derivado de la aplicación de técnicas de datos masivos. Hacerlo así –advierte– supone heredar la posible desviación o discriminación que haya podido existir en el momento de la admisión de los estudiantes.

LaS empresas que ofrecen servicios de “big data” parten de una recogida masiva de datos, que compilan y tratan los data brokers, y se analizan estadísticamente para obtener predicciones sobre los gustos de los consumidores. Es fácil que algunas de estas líneas de actuación no se ajusten a sus clientes o consumidores, y les perjudiquen.

Otro mal uso de los resultados derivados de los datos masivos tiene que ver con los algoritmos de los buscadores. Por ejemplo, Google Flu Trends, un programa de Alphabet, que usaba datos de las pesquisas sobre la gripe en su buscador Google para predecir el número de casos de la enfermedad con antelación en diversos países. El programa dejó de funcionar tras fallos clamorosos de predicción.

Aunque la Comisión Federal de Comercio también señala algunos usos positivos de estas aplicaciones tecnológicas, como en la prevención del abandono escolar o el acceso al crédito a personas que no pasarían un análisis convencional, apunta la necesidad de que haya “una supervisión humana de los datos y los algoritmos usados cuando se deriven decisiones importantes en aspectos como el empleo, la salud o el crédito”.

Para la FCT, es importante que los algoritmos de los buscadores protejan de posibles desviaciones. “Recuerden –dice a las empresas– que aunque las técnicas de ‘big data’ presenten una correlación, no significa que esa correlación sea significativa”, es decir, que haya detrás una causa.

Contenido exclusivo para suscriptores de Aceprensa

Estás intentando acceder a una funcionalidad premium.

Si ya eres suscriptor conéctate a tu cuenta. Si aún no lo eres, disfruta de esta y otras ventajas suscribiéndote a Aceprensa.

Funcionalidad exclusiva para suscriptores de Aceprensa

Estás intentando acceder a una funcionalidad premium.

Si ya eres suscriptor conéctate a tu cuenta para poder comentar. Si aún no lo eres, disfruta de esta y otras ventajas suscribiéndote a Aceprensa.