Artículos DD.HH. Sociedad Tecnología

Por qué la tecnología pone en peligro los derechos humanos

Print Friendly, PDF & Email

por Birgit Schippers

Películas como 2001: A Space Odyssey, Blade Runner y Terminator trajeron robots y sistemas informáticos deshonestos a nuestras pantallas de cine. Pero hoy en día, estos clásicos espectáculos de ciencia ficción no parecen estar tan alejados de la realidad.

Cada vez más, vivimos, trabajamos y jugamos con tecnologías computacionales que son autónomas e inteligentes. Estos sistemas incluyen software y hardware con capacidad de razonamiento y toma de decisiones independientes. Trabajan para nosotros en la fábrica; deciden si podemos obtener una hipoteca; hacen un seguimiento y miden nuestros niveles de actividad y estado físico; limpian los pisos de nuestra sala de estar y cortan el césped.

Los sistemas autónomos e inteligentes tienen el potencial de afectar casi todos los aspectos de nuestra vida social, económica, política y privada, incluidos los aspectos cotidianos mundanos. Gran parte de esto parece inocente, pero hay motivos para preocuparse. Las tecnologías informáticas afectan a todos los derechos humanos, desde el derecho a la vida hasta el derecho a la intimidad, pasando por la libertad de expresión y los derechos sociales y económicos. Entonces, ¿cómo podemos defender los derechos humanos en un paisaje tecnológico cada vez más marcado por la robótica y la inteligencia artificial (IA)?

IA y los derechos humanos

En primer lugar, existe un temor real de que el aumento de la autonomía de las máquinas socave el estatus de los seres humanos. Este temor se ve agravado por la falta de claridad sobre quién será responsable, ya sea en un sentido legal o moral, cuando las máquinas inteligentes causan daño. Pero no estoy seguro de que nuestra preocupación por los derechos humanos deba centrarse realmente en los robots deshonestos, como parece ser en la actualidad. Más bien, debemos preocuparnos por el uso humano de los robots y la inteligencia artificial y su despliegue en contextos políticos, militares, económicos y sociales injustos y desiguales.

En primer lugar, existe un temor real de que el aumento de la autonomía de las máquinas socave el estatus de los seres humanos. Este temor se ve agravado por la falta de claridad sobre quién será responsable, ya sea en un sentido legal o moral, cuando las máquinas inteligentes causan daño. Pero no estoy seguro de que nuestra preocupación por los derechos humanos deba centrarse realmente en los robots maliciosos, como parece ocurrir en la actualidad. Más bien, debemos preocuparnos por el uso humano de los robots y la inteligencia artificial y su despliegue en contextos políticos, militares, económicos y sociales injustos y desiguales.

Esta preocupación es particularmente pertinente con respecto a los sistemas de armas autónomas letales (LAWS), a menudo descritos como robots asesinos. A medida que avanzamos hacia una carrera armamentista de la IA, los académicos y activistas de derechos humanos como Christof Heyns, ex relator especial de la ONU sobre ejecuciones extrajudiciales, sumarias o arbitrarias, temen que el uso de las LAWS ponga a los sistemas robóticos autónomos a cargo de las decisiones de vida o muerte, con un control humano limitado o sin control alguno.

La IA también revoluciona el vínculo entre la guerra y las prácticas de vigilancia. Grupos como el Comité Internacional para el Control de Armas Robóticas (ICRAC) expresaron recientemente su oposición a la participación de Google en el Proyecto Maven, un programa militar que utiliza el aprendizaje automático para analizar las imágenes de vigilancia de los aviones teledirigidos, que pueden utilizarse para cometer asesinatos extrajudiciales. ICRAC apeló a Google para que se asegure de que los datos que recopila sobre sus usuarios nunca se utilicen para fines militares, uniéndose a las protestas de los empleados de Google sobre la participación de la empresa en el proyecto. Google anunció recientemente que no renovará su contrato.

En 2013, el alcance de las prácticas de vigilancia fue destacado por las revelaciones de Edward Snowden. Esto nos enseñó mucho sobre la amenaza al derecho a la privacidad y el intercambio de datos entre los servicios de inteligencia, las agencias gubernamentales y las corporaciones privadas. La reciente controversia en torno a la recogida de datos personales por parte de Cambridge Analytica a través del uso de plataformas de medios sociales como Facebook sigue causando serias aprensiones, esta vez por la manipulación y la interferencia en las elecciones democráticas que dañan el derecho a la libertad de expresión.

Mientras tanto, los analistas de datos críticos desafían las prácticas discriminatorias asociadas con lo que ellos llaman el “problema del hombre blanco” de la IA. Esta es la preocupación de que los sistemas de inteligencia artificial formados sobre la base de los datos existentes reproduzcan los estereotipos raciales y de género existentes que perpetúan las prácticas discriminatorias en ámbitos como la policía, las decisiones judiciales o el empleo.

Bots ambiguos

La amenaza potencial de las tecnologías computacionales para los derechos humanos y la seguridad física, política y digital fue destacada en un estudio recientemente publicado sobre el uso malicioso de la inteligencia artificial. Las preocupaciones expresadas en este informe de la Universidad de Cambridge deben tomarse en serio. Pero, ¿cómo debemos hacer frente a estas amenazas? ¿Están los derechos humanos preparados para la era de la robótica y la IA?

Se están realizando esfuerzos para actualizar los principios de derechos humanos existentes para esta época. Entre ellos se incluyen los Principios Rectores de la Empresa y los Derechos Humanos de las Naciones Unidas, los intentos de redactar una Carta Magna para la era digital y los Principios de IA Asilomar del Future of Life Institute, que identifican las directrices para la investigación ética, la adhesión a los valores y el compromiso con el desarrollo benéfico a largo plazo de la IA.

Estos esfuerzos son encomiables, pero no suficientes. Los gobiernos y los organismos gubernamentales, los partidos políticos y las empresas privadas, especialmente las principales empresas tecnológicas, deben comprometerse con los usos éticos de la IA. También necesitamos un control legislativo eficaz y aplicable.

Cualesquiera que sean las nuevas medidas que introduzcamos, es importante reconocer que nuestras vidas están cada vez más enredadas con máquinas autónomas y sistemas inteligentes. Este enredo mejora el bienestar humano en áreas como la investigación y el tratamiento médico, en nuestro sistema de transporte, en los entornos de asistencia social y en los esfuerzos por proteger el medio ambiente.

Pero en otras áreas este enredo genera perspectivas preocupantes. Las tecnologías computacionales se utilizan para observar y rastrear nuestras acciones y comportamientos, seguir nuestros pasos, nuestra ubicación, nuestra salud, nuestros gustos y nuestras amistades. Estos sistemas conforman el comportamiento humano y nos empujan hacia prácticas de autovigilancia que limitan nuestra libertad y socavan las ideas e ideales de los derechos humanos.

Y aquí está el quid de la cuestión: la capacidad para el uso dual de las tecnologías computacionales difumina la línea entre las prácticas benéficas y las maliciosas. Es más, las tecnologías computacionales están profundamente implicadas en las relaciones de poder desiguales entre los ciudadanos individuales, el estado y sus agencias, y las corporaciones privadas. Si se desvinculan de los sistemas nacionales e internacionales eficaces de control y equilibrio de poderes, representan una amenaza real y preocupante para nuestros derechos humanos.

Please follow and like us:
error