<br /><br /><strong>4. Un programa puede determinar si es un adicto o puede tener un seguro m&eacute;dico</strong><br /><br />El abuso de opioides -vendidos de forma legal o ilegal- es la principal causa de muertes accidentales en Estados Unidos y los expertos en salud a menudo hablan de una 'epidemia' en el consumo.<br /><br />Para atacar el problema, cient&iacute;ficos y autoridades se est&aacute;n uniendo para crear y ejecutar proyectos basados en datos.<br /><br />M&aacute;s recientemente, en el estado de Tennessee, el proveedor de seguro m&eacute;dico Blue Cross y la firma tecnol&oacute;gica Fuzzy Logix anunciaron la creaci&oacute;n de un algoritmo que analizaba nada menos que 742 variables para evaluar el riesgo de abuso e identificar posibles adictos.<br /><br />Eso elev&oacute; una discusi&oacute;n &eacute;tica: los datos analizados incluyen las historias m&eacute;dicas e incluso la direcci&oacute;n de residencia, de los candidatos.<br /><br />El argumento a favor se&ntilde;ala que este tipo de intervenci&oacute;n puede salvar vidas e incluso puede reducir abusos al sistema.<br /><br /><strong>Los adictos a los opioides tienen un 59% m&aacute;s de probabilidades de ser usuarios costosos de servicios m&eacute;dicos.</strong><br /><br />Los defensores del uso de la inteligencia artificial y los algoritmos en el sector se&ntilde;alan que esto podr&iacute;a ayudar a tomar decisiones y reducir el gasto innecesario generado por errores humanos.<br /><br /><strong>5. Un computador puede enviarlo a prisi&oacute;n</strong><br /><br />Jueces en al menos 10 estados de EE.UU. est&aacute;n dictando sentencia con la ayuda de una herramienta llamada COMPAS.<br /><br />Es un algoritmo de evaluaci&oacute;n de riesgos que puede predecir las probabilidades de que un individuo haya cometido un crimen.<br /><br />Uno de los casos m&aacute;s famosos que involucra el uso de COMPAS ocurri&oacute; en 2013, cuando Eric Loomis fue sentenciado a siete a&ntilde;os de prisi&oacute;n por eludir el control policial y manejar un veh&iacute;culo sin el consentimiento de su due&ntilde;o.<br /><br />Al preparar la sentencia, las autoridades locales presentaron una evaluaci&oacute;n -basada en una entrevista y en la informaci&oacute;n sobre sus probabilidades criminales- y Loomis obtuvo una calificaci&oacute;n de 'alto riesgo de cometer nuevos cr&iacute;menes'.<br /><br />Sus abogados rechazaron la condena usando distintos argumentos, uno de ellos el hecho de que COMPAS hab&iacute;a sido desarrollado por una empresa privada y la informaci&oacute;n sobre c&oacute;mo funcionaba el algoritmo nunca hab&iacute;a sido revelada.<br /><br />Tambi&eacute;n reclamaron que los derechos de Loomis hab&iacute;an sido violados, porque la evaluaci&oacute;n de riesgo tom&oacute; en cuenta informaci&oacute;n sobre el g&eacute;nero y la informaci&oacute;n racial.<br /><br /><strong>De hecho, un an&aacute;lisis de m&aacute;s de 10.000 acusados en el estado de Florida publicado en 2016 por el grupo de investigaci&oacute;n ProPublica mostr&oacute; que las personas negras eran a menudo calificadas con altas probabilidades de reincidir, mientras que los blancos eran considerados menos proclives a cometer nuevos cr&iacute;menes.</strong></div>