Habrá una intrusión aquí.
Esta nueva herramienta de lucha contra el crimen ha sido desarrollada por el Prof. Ishanu Chattopadhyay de la Universidad de Chicago, se especializa en inteligencia artificial. Su base es la llamada red neuronal de autoaprendizaje, es decir, un sistema informático que, a partir de los datos introducidos en él (como descripciones de eventos pasados), es capaz de sacar conclusiones sobre el curso más probable de eventos en el futuro. Esto se denomina sistemas predictivos, que se utilizan, por ejemplo, para pronosticar el clima o las tendencias económicas.
una. Chattopadhyay examinó cómo un sistema de este tipo se ocupa de la predicción del crimen. La agencia de investigación militar DARPA y el Neubauer Collegium for Culture and Society en Chicago participaron en la investigación. Hablando de su algoritmo, el profesor usa el término «ciudad gemela»: es un gemelo virtual de una ciudad real creada en una computadora, en la que se simulan eventos futuros.
Pero para que un algoritmo pueda predecir algo, primero se le deben proporcionar datos. Esto se hizo utilizando información de la policía de Chicago sobre delitos, especialmente peleas y robos, pero también sobre delitos menores denunciados por los ciudadanos. Se tomaron en cuenta los hechos ocurridos en 2014-2016, ocurridos en diferentes zonas de la ciudad.
una. Chattopadhyay instruyó al algoritmo para calcular dónde es probable que se cometan los siguientes delitos en la próxima semana. Resultó que el algoritmo indicaba estos lugares con una precisión de dos bloques y era muy eficaz: ¡acertó 9 de cada 10 veces!
La policía no es completamente objetiva.
El algoritmo también encontró que la cantidad de arrestos en relación con la cantidad de delitos está distribuida de manera muy desigual. Depende de la situación socioeconómica del barrio y de sus habitantes: la delincuencia en los barrios más ricos se ha traducido en más detenciones que en los menos favorecidos. Según el profesor. Chattopadhyaya, esto puede indicar un sesgo en la respuesta de la policía y las fuerzas del orden. El Dr. Cuba Biowar, sociólogo de la Universidad SWPS, coincide con este diagnóstico: – Esto aclara el mecanismo psicológico de los sesgos. Si a un policía del distrito Praga-Bodny de Varsovia no le gustara Braga-Boonok, probablemente sería reacio a ir a la intervención en la calle Staloa y estaría menos interesado en poner orden allí, comenta el Dr. Beowar.
Los científicos están trabajando en el uso de inteligencia artificial para predecir enfermedades en personas específicas en función de un análisis de su estilo de vida.
Como asegura el creador del algoritmo, no está pensado para ser utilizado en comisarías para intervenciones directas. – La posibilidad de predecir delitos no significa que algunos lugares estén inundados de patrullas policiales – explica el profesor. Chattopadhyay. Se pueden hacer muchas otras cosas: medidas educativas y preventivas, elevando el nivel de vida en un área en particular. Vale la pena recordar que el algoritmo no indica posibles delincuentes, sino solo la dinámica de los eventos delictivos en un área en particular, dice. El profesor se da cuenta de que la policía puede estar tratando de hacer un mal uso de esta herramienta. “Por ejemplo, al patrullar en exceso ciertas áreas o comunidades”, explica.
¿Cómo aprenden los algoritmos a distinguir
Desafortunadamente, cada algoritmo es tan bueno como los datos que ingresa y sobre la base de los cuales obtiene resultados, dice el Dr. Beowar. Es concebible que el patrullaje excesivo de las áreas respectivas lleve a un aumento repentino en el número de arrestos, estigmatizando así el área como el área con la tasa de criminalidad más alta. – Además, el perfil delictivo que generaría tal algoritmo basado en datos policiales no tiene en cuenta los denominados delitos de cuello blanco, delitos específicos cometidos por personas acomodadas de zonas prestigiosas, por ejemplo malversación de grandes sumas de dinero o tráfico, explica el Dr. Piwowar, uso generalizado de drogas. También hay temas delicados de racismo: en los vecindarios de EE. UU. donde ocurren muchos delitos registrados por la policía son predominantemente afroamericanos, y esta declaración es solo un movimiento para generalizar que puede lastimar a muchas personas y hacer que los vecindarios se vuelvan extraños. .
Esta no sería la primera vez que Amnistía Internacional saca conclusiones de declaraciones policiales que dañarían a la comunidad de color de Chicago. En 2016, la policía local probó un algoritmo de inteligencia artificial destinado a identificar qué ciudadanos tenían más riesgo de participar en tiroteos y los posibles autores de estos delitos. Según American Business Insider, resulta que el 56 por ciento estaba en la lista. ¡Pueblo negro!
El racismo es uno de los prejuicios más comunes que sin darnos cuenta recogemos de nosotros por la inteligencia artificial. – Hace unos años hubo un escándalo sobre el sistema Compass, que se utiliza en el poder judicial estadounidense – dice el Dr. Beowar. El sistema pagó a los jueces que necesitaban una sentencia de prisión extendida y podían ser puestos en libertad condicional. El problema era que el algoritmo aprendía de los cuestionarios que llenaban los presos, no solo sobre su sentencia, sino también sobre dónde vivían o el historial de infracciones de la ley en la familia. Los negros en los Estados Unidos tienen esa historia con más frecuencia que los blancos, y el sistema reconoció que si alguien tenía un hermano en prisión en la familia, había un mayor riesgo de reincidir ellos mismos. Y es más probable que afecte a los negros que a los blancos. – Entonces, incluso si White cometió un delito más grave, según estos datos, Kompas sugirió darle la libertad condicional – dice el Dr. Beowar.
Los estereotipos sobre el género puramente humano también impregnan los sistemas de IA. El caso de reclutamiento de Amazon se llevó a cabo hace varios años, durante los cuales el sistema informático inició la primera etapa de contratación para puestos técnicos, rechazando sin razón grandes ofertas de mujeres y preferentemente de hombres blancos ruidosos. Solo cuando los profesionales de TI analizaron el caso quedó claro que estos candidatos habían sido seleccionados con más frecuencia durante los procesos de contratación anteriores. La inteligencia artificial refleja el punto de vista humano.
Sin embargo, nadie tiene la intención de renunciar a los algoritmos de ayuda en el proceso de reclutamiento. Según el Washington Post, unas 100 empresas internacionales ya están utilizando el sistema HireVue en la etapa inicial, que se comunica con el candidato a través de la cámara de su teléfono y analiza la apariencia, la vestimenta, el estilo y los modales del entrevistador durante la entrevista. Con base en los indicadores del sistema, se realiza una selección preliminar de candidatos. Esto es bastante controvertido, pero los especialistas de los departamentos de recursos humanos se defienden con el argumento de que siempre se ha hecho esta selección basada en una valoración completamente subjetiva de la apariencia o forma de hablar del candidato. Ahora, gracias a los algoritmos, es simplemente más rápido y eficiente.
Privacidad para tu comodidad
Hay mucho escepticismo, pero, sin embargo, los sistemas de IA están afectando cada vez más nuestras vidas: fuerzan a nuestros amigos en las redes sociales, controlan nuestras decisiones. – Google, Facebook y Twitter recopilan enormes cantidades de información sobre nosotros, basándose únicamente en el seguimiento de nuestro comportamiento en el ciberespacio – dice el profesor. Ryszard Tadeusiewicz de la Universidad de Ciencia y Tecnología AGH de Cracovia. – Se crea un modelo digital de la personalidad de cada usuario, y esto permite predecir cómo interactuará con tal o cual información. Por otro lado, en la enorme cantidad de información que genera el mundo, sin la ayuda de la inteligencia artificial, estaríamos perdidos como niños en un denso bosque -añade-.
La idoneidad de usar sistemas de IA en el mundo virtual no puede exagerarse. Personalizar su tienda en línea o publicitar a un cliente específico hace la vida mucho más fácil. Lo mismo se aplica a la visualización de publicaciones de amigos o grupos temáticos en las redes sociales. Por lo general, es una combinación perfecta para lo que nos importa y amamos mucho, dice el Dr. Piwowar.
Los sistemas de IA de autoaprendizaje no solo significan una vida más cómoda, sino también más segura. Nuestro algoritmo, que predice el crimen en la actualidad, se puede usar para predecir eventos climáticos extremos o terremotos. Sistemas de autoaprendizaje similares tienen una gran esperanza para aumentar la eficiencia de la agricultura, lo que evitará una crisis alimentaria y también puede ayudar a predecir las próximas epidemias, enumera el profesor. Chattopadhyay.
Los científicos también están trabajando en el uso de inteligencia artificial para predecir enfermedades en personas específicas en función de un análisis de su estilo de vida y la frecuencia de su aparición en los médicos. Se trata de datos sensibles, pero analizarlos podría suponer un gran avance en la detección precoz de, por ejemplo, el cáncer.
– El problema surge cuando la inteligencia artificial comienza a controlar las elecciones de las personas, como sucedió durante el escándalo de Cambridge Analytica – dice el Dr. Piwowar. Se trataba de la aplicación Mydigitallife, que rastreaba el comportamiento de los usuarios y creaba perfiles personales, que luego se usaban para manipular las opiniones políticas y fomentar ciertas elecciones. Esto incluye que gracias a los datos de Cambridge Analytica, Donald Trump ganó las elecciones estadounidenses.
«Alborotador. Ávido fanático del tocino. Practicante independiente del alcohol. Ninja de Internet. Introvertido. Adicto a las redes sociales. Experto en la cultura pop».
More Stories
¿Qué hacer para vivir mejor? Un experto en la regla de los 300 minutos y qué tirar de la nevera
El misterio de la muerte clínica. Los científicos han hecho un descubrimiento maravilloso.
Todos los días tenemos un producto popular en nuestra nevera. «Puede suponer un riesgo para la salud»