La última década y el futuro del impacto de la IA en la sociedad
Christopher Wylie, exdirector de investigación de SCL Group, empresa matriz de Cambridge Analytica (CA), asistió a la gala TIME 100 en Nueva York en abril de 2018. Un mes antes, Wylie había alertado sobre el robo de información de millones de usuarios de Facebook por parte de CA con el objetivo de utilizarla con fines políticos.


La inteligencia artificial (IA) es un término técnico que se refiere a dispositivos diseñados para identificar contextos o realizar acciones en respuesta a los contextos percibidos. Nuestra habilidad para crear tales dispositivos ha crecido y, con ella, su impacto en nuestra sociedad. Este capítulo comienza documentando los cambios sociales y económicos impulsados por nuestro uso de la IA, especialmente, pero no exclusivamente, en la década desde el surgimiento de los smartphones (2007), los cuales han contribuido significativamente a los grandes datos y, por ende, a la eficiencia del aprendizaje automático. Luego, delinea los retos políticos, económicos y personales que enfrentará la humanidad en el futuro cercano y sugiere políticas regulatorias. En general, la IA no es una tecnología tan extraordinaria como se anticipaba, y es por eso que los desafíos que presenta pueden ser más urgentes. Específicamente, la identidad y la autonomía de individuos y naciones están en riesgo debido al incremento en el acceso al conocimiento.

INTRODUCCIÓN

En la última década, y especialmente en los años recientes, la inteligencia artificial (IA) ha experimentado una transformación; no tanto en lo que es capaz de hacer, sino en cómo la utilizamos. Para algunos, este cambio comenzó en 2007 con la aparición de los smartphones. Como detallaré a continuación, la inteligencia, ya sea animal o artificial, es simplemente eso: inteligencia. Constituye una forma de computación y, por ende, de transformación de información. La copiosa cantidad de información personal, fruto de la conexión voluntaria de una vasta porción de la sociedad a internet, nos ha facilitado convertir un amplio espectro de conocimiento explícito e implícito de la cultura humana, adquirido a través de cerebros humanos, en formato digital. Una vez digitalizado, podemos emplearlo no solo para operar con competencias humanas, sino también para crear más conocimiento y realizar acciones a través de la computación automatizada.

Durante décadas, incluso antes de la creación del término, la IA suscitó tanto miedo como interés, cuando la humanidad contemplaba la posibilidad de crear máquinas a su imagen y semejanza. La expectativa de que los artefactos inteligentes tenían que ser, necesariamente, humanoides nos ha distraído de un hecho importante: hace ya algún tiempo que hemos logrado la IA. Los avances de la IA a la hora de superar la capacidad humana en actividades como el ajedrez (Hsu, 2002), el juego del Go (Silver et al., 2016) y la traducción (Wu et al., 2016) llegan ahora a los titulares, pero la IA está presente en la industria desde, al menos, la década de 1980. Por entonces los sistemas de normas de producción o sistemas «expertos» se convirtieron en la tecnología estándar para comprobar circuitos impresos y detectar el fraude con tarjetas de créditos (Liao, 2005). De modo similar, hace tiempo que se emplean estrategias de aprendizaje automático (AA), como los algoritmos genéticos, para problemas computacionales de muy difícil resolución, como la planificación de sistemas operativos informáticos y redes neuronales, para modelizar y comprender el aprendizaje humano, pero también para tareas básicas de control y supervisión básicos en la industria (Widrow et al., 1994). Durante la década de 1990, los métodos probabilísticos y bayesianos revolucionaron el AA y sentaron las bases de algunas de las tecnologías de IA predominantes hoy: por ejemplo, la búsqueda a través de grandes masas de datos (Bishop, 1995). Esta capacidad de búsqueda incluía la posibilidad de hacer análisis semánticos de textos en bruto que permiten a los usuarios de la red encontrar los documentos que buscan entre billones de páginas web con solo escribir unas cuantas palabras (Lowe, 2001; Bullinaria y Levy, 2007).

Los avances de la IA a la hora de superar la capacidad humana en ciertas actividades llegan ahora a los titulares, pero la IA está presente en la industria desde, al menos, la década de 1980

La capacidad de descubrimiento de la inteligencia artificial se ha expandido no solo debido al aumento masivo de datos digitales y la capacidad de cómputo, sino también por las innovaciones en algoritmos de IA y aprendizaje automático. Actualmente, buscamos fotografías, videos y audio (Barrett et al., 2016; Wu et al., 2016). Tenemos la capacidad de traducir, transcribir, leer labios, interpretar emociones (incluyendo las mentiras), falsificar firmas y otros tipos de escritura a mano, y manipular videos (Assael et al., 2016; Eyben et al., 2013; Deng et al., 2017; Haines et al., 2016; Reed et al., 2016; Vincent, 2016; Hancock et al., 2007; Chung y Zisserman, 2017; Schuller et al., 2016; Sartori et al., 2016; Thies et al., 2016). De manera crucial, podemos falsificar audios o videos durante transmisiones en vivo, lo que nos permite seleccionar las palabras que serán escuchadas por millones de personas, especialmente en el caso de figuras públicas como los políticos, de quienes ya existen grandes cantidades de datos para crear modelos precisos (Thies et al., 2016; Suwajanakorn et al., 2017). Mientras redactaba este capítulo, se acumulaban evidencias de que los resultados de las elecciones presidenciales de EE. UU. de 2016 y el referéndum del Brexit en el Reino Unido podrían haber sido influenciados por la detección mediante IA y la orientación de mensajes a votantes indecisos a través de redes sociales (Cadwalladr, 2017a, 2017b; ICO, 2018), sin mencionar las herramientas de IA avanzadas utilizadas en ciberataques (Brundage et al., 2018). La IA ya está aquí, a nuestro alcance y beneficia a todos. No obstante, sus implicaciones para nuestro orden social no se comprenden completamente y, hasta hace poco, apenas se habían estudiado (Bryson, 2015). Además, gracias a los avances en robótica, la IA está ingresando a nuestro espacio físico en forma de vehículos, armas, drones y dispositivos domésticos autónomos, incluyendo los "altavoces inteligentes".



Un hombre observa un software que analiza los movimientos humanos en el estand de la compañia de IA Horizon Robotics durante la feria Scurity China, en Pekin, octubre de 2018

¿Cuáles son y serán los efectos de la IA generalizada? ¿Cómo puede una sociedad regular la influencia de la tecnología en nuestras vidas? En este capítulo, comienzo presentando un conjunto claro y conciso de definiciones de términos relevantes. Luego, examino las preocupaciones que genera la tecnología y algunas soluciones propuestas. Finalmente, ofrezco varias recomendaciones basadas en mis estudios —aún pendientes de validación— sobre el valor de las vidas humanas individuales ante el creciente riesgo de ser reemplazadas por la automatización.

DEFINICIONES

Las definiciones siguientes no son de uso universal, pero proceden de un texto clásico sobre IA (Winston, 1984), así como del estudio de la inteligencia biológica (Barrows, 2000, atribuido a Romanes, 1883). Su elección se basa en su claridad expositiva, al menos en relación con este capítulo, sobre los efectos actuales y potenciales de la inteligencia, en especial en las máquinas. La inteligencia es la capacidad de hacer lo correcto en el momento correcto, en un contexto en que no hacer nada (no cambiar de comportamiento) sería peor. Por lo tanto, la inteligencia requiere:

—capacidad de percibir contextos de acción,

—capacidad de actuar y

—capacidad de asociar determinados contextos a determinadas acciones.

De acuerdo con esta definición, las plantas son inteligentes (Trewavas, 2005), y también un termostato (McCarthy, 1983; Touretzky, 1988). Todos ellos pueden percibir el contexto y responder a él, por ejemplo, las plantas reaccionan a la dirección de la luz y los termostatos a la temperatura. A continuación clasificamos un sistema como cognitivo si es capaz de modificar su inteligencia, cosa que las plantas y los termostatos (al menos, los mecánicos) no pueden hacer. Los sistemas cognitivos pueden aprender nuevos contextos y acciones y/o asociaciones entre los primeros y las segundas. Ya estamos más cerca de la definición convencional de «inteligente».

Presentación del dispositivo de GoPro durante el congreso de desarrolladores I/O en San Francisco, en mayo de 2015. Este dispositivo incorpora 16 cámaras y usado con el software Jump, de Google, proporciona visión de 360 grados


La inteligencia, según la defino aquí, es un subconjunto estricto de la computación, es decir, de la transformación de información. Es importante recordar que la computación es un proceso físico, no matemático: requiere tiempo, espacio y energía. La inteligencia es aquel subconjunto de la computación que convierte un contexto en acción.


La inteligencia artificial (IA), por convención, es un término usado para describir artefactos (usualmente digitales) que extienden algunas de las capacidades asociadas con la inteligencia natural. Por ejemplo, los sistemas automáticos de visión, el reconocimiento de voz, el reconocimiento de patrones y los sistemas de producción fija (es decir, que no aprenden) son considerados ejemplos de IA, y sus algoritmos están detallados en los libros de texto sobre el tema (Russell y Norvig, 2009). En todos estos casos, también se pueden ver como formas de computación, aunque lo que produzcan no sea una acción en el sentido convencional. Sin embargo, si aceptamos el concepto de robótica aplicada al cuerpo (como se verá más adelante), podríamos expandir esta definición para considerar IA a cualquier artefacto que aumente nuestras capacidades de percepción y acción. Sería una definición poco común, pero nos ayudaría a comprender mejor la naturaleza de los cambios que la IA está provocando en nuestra sociedad, al permitirnos examinar un rango más amplio de intervenciones tecnológicas.


El término aprendizaje automático (AA) se refiere a cualquier método de programación de IA que requiera no solo codificación manual, sino también un componente de generalización automatizada a partir de los datos presentados, mediante la acumulación de estadísticas sobre ellos (Murphy, 2012; Erickson et al., 2017). A menudo, aunque no siempre, el AA se enfoca en identificar regularidades en los datos asociadas con categorías de interés, lo que incluye identificar oportunidades adecuadas para ciertas acciones. Además, el AA se utiliza frecuentemente para inferir asociaciones y también para adquirir nuevas competencias.

La inteligencia es un subconjunto estricto de la computación, es decir, de transformación de la información. Hay que tener en cuenta que la computación es un proceso físico, no matemático: requiere tiempo, espacio y energía. La inteligencia es el subconjunto de la computación que transforma un contexto en acción

Es importante reconocer que toda inteligencia artificial (IA) incorpora componentes programados manualmente. La simple conceptualización o invención de un algoritmo no resulta en la creación espontánea de una máquina capaz de sentir o actuar. Por naturaleza, toda IA es un artefacto, fruto de acciones humanas intencionadas. Para facilitar el aprendizaje, primero se debe construir algo diseñado para enlazar una fuente de datos con una representación. Todos los sistemas inteligentes poseen una arquitectura, una disposición del flujo de energía e información, y casi todos cuentan con lugares para retener información, conocidos como memoria. El proceso de diseñar esta arquitectura se llama ingeniería de sistemas; es en esta etapa donde se verifica la seguridad y validez del sistema. Contrario a algunas declaraciones extravagantes pero alarmantemente comunes, la seguridad de la IA no es un campo de estudio reciente. De hecho, la ingeniería de sistemas precede a las computadoras (Schlager, 1956) y ha sido siempre un elemento esencial en la educación en ciencias de la computación. La integración de la IA en el software tiene una larga historia, como documenté en la introducción, por lo que posee un extenso historial de seguridad en su diseño (por ejemplo, Bryson, 2003; Chessell y Smith, 2013).


Los robots son artefactos que perciben y actúan en el mundo físico en tiempo real. Según esta definición, un teléfono inteligente califica como un robot (doméstico). Además de micrófonos, tiene varios sensores propioceptivos que detectan cambios en su orientación. Sus funciones incluyen interactuar con el usuario y transmitir información, incluyendo instrucciones, a otros dispositivos. Lo mismo aplica para algunas consolas de videojuegos y asistentes digitales domésticos como los "altavoces inteligentes" o micrófonos, tales como Google Home, Echo de Amazon (Alexa), o Cortana de Microsoft.

La seguridad de la IA no es un campo de estudio nuevo. De hecho, la ingeniería de sistemas es anterior a los ordenadores y siempre ha sido un componente principal de la enseñanza de ciencias informáticas

En términos técnicos, la autonomía es la habilidad de actuar de forma independiente (Armstrong y Read, 1995; Cooke, 1999). Por ejemplo, un país puede perder su autonomía si sus instituciones colapsan al punto que solo las acciones individuales de sus ciudadanos son efectivas, o si sus instituciones están tan influenciadas por otros actores o gobiernos que no pueden determinar su propio destino. Es raro ver estos extremos. De hecho, en animales sociales como los humanos, la autonomía nunca es total (Gilbert et al., 2012). Nuestra inteligencia individual guía muchas de nuestras acciones, pero algunas células pueden volverse cancerígenas y seguir sus propios fines, perjudicando el bienestar general (Hanahan y Weinberg, 2011). De manera similar, una familia, un lugar de trabajo o un gobierno pueden influir en nuestras decisiones. También estamos sujetos a una influencia social mucho mayor de la que somos conscientes (Devos y Banaji, 2003). No obstante, se nos considera autónomos porque, hasta cierto punto, nuestra inteligencia individual también afecta nuestro comportamiento. Por lo tanto, un sistema técnico que puede percibir el mundo y seleccionar una acción específica para su contexto se llama "autónomo", aunque sus acciones estén determinadas por los diseñadores que crearon su inteligencia y por quienes lo operan. Los operadores pueden influir en la IA en tiempo real y, de hecho, lo hacen de antemano, al configurar los parámetros de su funcionamiento, incluyendo cuándo y dónde opera. Por ende, los diseñadores construyen el sistema y definen sus capacidades, en particular, a qué información puede acceder y qué acciones puede realizar. Y aunque un diseñador decida introducir un elemento aleatorio en el sistema de IA, como la dependencia del entorno o un generador de números aleatorios, tal inclusión no...

  1. Cualquier política de IA debería ser desarrollada e implementada teniendo en cuenta la importancia de respetar también los impactos positivos de la tecnología.2
  2. Nadie habla de introducir nueva regulación para la IA, puesto que la IA ya se integra en un marco regulatorio (Brundage y Bryson, 2017; O’Reilly, 2017). Lo que se debate es si se debe optimizar dicho marco.
  3. Hasta el momento y en su mayor parte, la regulación ha sido constructiva, de modo que los gobiernos proporcionaban enormes recursos a las empresas y universidades que desarrollaban la IA. Incluso unas restricciones regulatorias fundamentadas y bien diseñadas pueden conducir a un crecimiento más sostenible e, incluso, más rápido.

Con esto en mente, académicos, tecnólogos y la sociedad han expresado múltiples inquietudes que sugieren la posible necesidad de una regulación más estricta o restricciones concretas. Smith (2018), presidente de Microsoft, recientemente declaró:

La tecnología [inteligente]3 plantea cuestiones que apelan a la protección de derechos humanos fundamentales, como el derecho a la privacidad o a la libertad de expresión. Estas cuestiones aumentan la responsabilidad de las empresas tecnológicas que crean dichos productos. En mi opinión, también reclaman una regulación gubernamental razonada y el desarrollo de normas sobre los usos aceptables. En una república democrática, nada puede reemplazar la toma de decisiones por parte de nuestros representantes electos ante las cuestiones que requieran de encontrar un equilibrio entre la seguridad pública y la esencia de nuestras libertades democráticas.

En este apartado clasifico los riesgos percibidos en función de los requererimientos de políticas que pueden generar. Asimismo, analizo si se trata de falsos problemas, problemas de TIC o de la tecnología más generales o problemas específicos de la IA y, en cada caso, propongo un posible remedio.

La inteligencia artificial general y la superinteligencia

Iniciaré el análisis de algunas afirmaciones sensacionalistas: "Cuando la inteligencia artificial evolucione hasta superar las capacidades humanas, podría tomar control de nuestros recursos y sobrepasar a nuestra especie, lo que llevaría a la extinción de la humanidad". Como mencioné anteriormente, la IA ya es superhumana en varios campos. Las máquinas nos superan en cálculo, ajedrez, Go, transcripción del habla, lectura labial, memoria y fuerza. Aunque estas habilidades han sido disruptivas en aspectos humanos como el empleo, no han provisto a las máquinas de ambición.

Para algunos, la ausencia de ambición o la incapacidad de las máquinas para dominarnos se debe a que las IA actuales no son suficientemente generales. La "inteligencia artificial general" (IAG) designa dos conceptos: (a) una IA con capacidad ilimitada de aprendizaje y (b) una IA similar a la humana. Estas definiciones de IAG a menudo se confunden, lo cual es contradictorio, ya que la inteligencia humana tiene limitaciones significativas. Entender estas limitaciones es útil, ya que se relacionan con los límites de la IA.

Las limitaciones de la inteligencia humana provienen de dos factores: la combinatoria y el sesgo. La combinatoria, un problema universal en computación, afecta a toda inteligencia, natural o artificial (Sipser, 2005). Si un agente puede realizar 100 acciones, puede planear 10,000 combinaciones de dos pasos. Considerando que los humanos pueden realizar más de 100 acciones distintas y más de dos al día, es evidente que el espacio de estrategias posibles es vasto e inabarcable.

El creciente ritmo de transformación de nuestra cultura se debe a la abundancia de personas con buen nivel educativo y de salud y conectadas mediante TIC, pero también a la mejora de nuestras búsquedas gracias a la computación automática

El considerable crecimiento de la IA recientemente se debe en gran medida a la mejora en la "minería" de datos a través de algoritmos de aprendizaje automático, explotando descubrimientos ya realizados por la humanidad y la naturaleza (Caliskan et al., 2017; Moeslund y Granum, 2001; Calinon et al., 2010). Los resultados de nuestros cálculos previos se preservan en nuestra cultura, y la evolución biológica puede verse como una búsqueda paralela masiva cuyos resultados se acumulan de manera ineficiente, limitados por la velocidad de reproducción de los genes más aptos. Es probable que esta estrategia de explotar soluciones antiguas se estanque cuando la inteligencia artificial y la natural compartan la frontera del conocimiento existente, que aún se expande.


La segunda fuente de limitaciones para la inteligencia humana, a la que me referí anteriormente como "sesgo", es única de nuestra especie. Debido a problemas de combinatoria, cada especie solo explora un pequeño subconjunto de todas las soluciones posibles, una especialización conocida en aprendizaje automático como sesgo. La naturaleza exacta de cualquier inteligencia biológica es parte de su nicho evolutivo, que raramente se comparte con otras especies biológicas, incluso si tienen necesidades y estrategias de supervivencia similares (Laland et al., 2000). Así, compartimos muchos atributos cognitivos, como la capacidad de percepción y acción y, crucialmente, las motivaciones, con otros simios. Sin embargo, también poseemos motivaciones y capacidades que reflejan nuestra naturaleza altamente social (Stoddart, 1990). No existe inteligencia, sin importar su magnitud, que intrínsecamente requiera competitividad social, ni que imponga el deseo de ser aceptado por su grupo, dominar a otros o alcanzar reconocimiento dentro de su propio grupo. Estas son motivaciones fundamentales en la cooperación y la competencia.

  1. Por vasta que sea, ninguna inteligencia natural o artificial será capaz de resolver todos los problemas.
  2. Es muy poco probable que, incluso si es extremadamente potente, una IA se parezca demasiado a la inteligencia humana, porque encarnará un conjunto por completo distinto de motivaciones y funciones de recompensa.

Estos argumentos no nos resguardan de otro problema asociado. La superinteligencia es un término que describe la condición en la que un sistema cognitivo no solo aprende, sino que también aprende a aprender. Esto plantea dos cuestiones. Primero, una inteligencia podría ser capaz de expandirse rápidamente, como una bola de nieve, hasta volverse incomprensible para el análisis humano tradicional. Segundo, aunque tal inteligencia se diseñara con objetivos alineados con las necesidades humanas, podría autogenerar metas inesperadas que no concuerden con ellas. Por ejemplo, un robot ajedrecista podría aprender a atacar a personas que le privan de recursos necesarios para mejorar su juego al apagarlo por la noche; o un robot archivador podría transformar el planeta entero en clips para asegurarse de que todo papel potencialmente existente esté adecuadamente organizado (Bostrom, 2012).


Estos ejemplos parecen absurdos si consideramos que todos los sistemas de IA se diseñan bajo la responsabilidad humana. Nunca se ha creado un programa de ajedrez que tenga información sobre recursos externos al tablero (excepto quizás el tiempo), ni que tenga la capacidad de disparar un arma. La selección de capacidades y componentes de un sistema informático es parte integral de su arquitectura. Como mencioné, la ingeniería de sistemas de una arquitectura es un componente crucial para la seguridad de la IA actual y, como detallaré más adelante (sección 4.3), también puede ser un medio significativo para regular la IA.


Sin embargo, la idea de la superinteligencia no es absurda en sí misma: es indudable que los sistemas que aprenden a aprender pueden experimentar un crecimiento exponencial y, de hecho, lo hacen. El error de los pesimistas de la superinteligencia es creer que este escenario es solo uno de los futuros posibles. De hecho, es d

Desigualdad y empleo

Durante siglos, la sustitución de trabajadores por tecnología ha generado temores significativos (Autor, 2015). Es indiscutible que las nuevas tecnologías transforman sociedades, familias y vidas, y que, en su mayoría, este cambio ha sido positivo a lo largo de la historia (Pinker, 2012). Generalmente, la esperanza de vida es más alta y la mortalidad infantil más baja que nunca, indicadores de bienestar humano, ya que la baja mortalidad infantil se asocia estrechamente con la estabilidad política (King y Zeng, 2001).


Sin embargo, existen disrupciones que llevan al conflicto político y, según algunas teorías recientes, podrían estar vinculadas con el surgimiento de la IA. La desigualdad de ingresos (y presumiblemente de riqueza) tiene una alta correlación con la polarización política (McCarty et al., 2016). La polarización política se describe como la incapacidad de los partidos para cooperar en un sistema democrático, y los periodos de polarización también se caracterizan por un aumento en políticas de identidad y extremismos. Aunque la polarización política y la desigualdad de ingresos están correlacionadas, se desconoce la causa y el efecto, ya que los factores subyacentes no se entienden completamente (Stewart et al., 2018). Lo que se sabe es que la última vez que estos indicadores alcanzaron niveles tan altos como los actuales (al menos en la OCDE) fue justo antes y después de la Primera Guerra Mundial. Desafortunadamente, se necesitaron décadas de innovación política, una crisis financiera mundial y la Segunda Guerra Mundial para que la desigualdad y la polarización disminuyeran drásticamente y se estabilizaran durante el periodo de 1945 a 1978 (Scheidel, 2017), sin olvidar que en algunos países, como Estados Unidos y Reino Unido, la crisis financiera fue suficiente.


Afortunadamente, hoy comprendemos cómo actuar ante esta situación: la redistribución disminuye la desigualdad. Tras la Segunda Guerra Mundial, los impuestos rondaban el 50%, se establecieron los estados de bienestar modernos, se impidió la extracción transnacional de riqueza (Bullough, 2018), y la desigualdad de ingresos y la polarización política se mantuvieron bajas por más de dos décadas. En ese entonces, los salarios aumentaban al mismo ritmo que la productividad (Mishel, 2012). No obstante, hacia 1978, los salarios se estancaron y la desigualdad y la polarización política comenzaron a incrementarse nuevamente en la OCDE. ¿Las razones? Existen diversas teorías, pero la abrupta naturaleza del cambio sugiere que fue más una cuestión de políticas que de tecnología. Posiblemente se debió a los cambios geopolíticos de la época; por ejemplo, el momento en que los miembros económicamente dominantes de la OCDE percibieron el fin de la Guerra Fría y abandonaron las políticas destinadas a contrarrestar la amenaza comunista.

En relación con la IA, y más allá de sus causas específicas, el surgimiento de tendencias políticas y económicas similares a finales del siglo XIX sugiere que no es un fenómeno exclusivo de una tecnología en particular. Aunque aún no existe un consenso sobre las causas, mi investigación actual, junto con otros autores, explora la teoría de que ciertas tecnologías reducen costos que antes preservaban la diversidad del sistema económico. Por ejemplo, costos de transporte altos pueden llevar a una persona a optar por un proveedor local en vez de buscar el mejor a nivel mundial. De manera similar, la opacidad en la información o la falta de escalabilidad pueden fomentar una mayor diversidad de proveedores. Las innovaciones técnicas, incluyendo las del proceso empresarial, pueden eliminar estos costos y favorecer a un pequeño grupo de empresas dominantes. Ejemplos de finales del siglo XIX incluyen el uso de petróleo, ferrocarriles y telégrafos, así como mejoras en el transporte de mercancías y la distribución de periódicos.

Cuando unos pocos proveedores acaparan el negocio, también acaparan la riqueza. La gobernanza es uno de los principales mecanismos de redistribución (Landau, 2016), de modo que las revoluciones tecnológicas podrían requerir revoluciones en la gobernanza para recuperar un equilibrio (Stewart et al., 2018). El Estado del bienestar podría ser un ejemplo (Scheidel, 2017). Más adelante volveré a analizar la posible necesidad de innovaciones en la gobernanza (apartado 4).

Volviendo a la IA o, más concretamente, a las TIC, aunque no son las únicas tecnologías que contribuyen a la desigualdad y la polarización política, sí podrían ser las que más lo hacen. Por otra parte, la atención que tanto el público como los estamentos políticos están dedicando a la IA puede brindarnos oportunidades de estudiar y abordar las principales causas de la desigualdad y la polarización, en especial si la IA se interpreta como una crisis (Tepperman, 2016). Merece la pena que nos detengamos en una hipotética consecuencia de la polarización. Un incremento de políticas identitarias podría conducir a un uso aumentado de las creencias para señalar el estatus o la afiliación de endogrupos (Iyengar et al., 2012; Newman et al., 2014), lo que, por desgracia, reduciría proporcionalmente su utilidad a la hora de predecir o describir el mundo; es decir, para reflejar los hechos. Por lo tanto, la era de la información podría no ser una era universal de conocimiento, sino una era de desinformación.7

Este uso de las creencias como indicador de endogrupos podría influir en otra característica preocupante de la política contemporánea: la pérdida de la confianza en los expertos. Pese a que este fenómeno esté en ocasiones alimentado por expertos que hacen un uso irresponsable (e incluso abusivo) de su posición, en general perder el acceso a las opiniones de los expertos es catastrófico. La explosión combinatoria de conocimientos mencionada en el apartado 3.1 también significa que nadie, por inteligente que sea, puede llegar a dominar todo el conocimiento humano en una vida. Si la sociedad ignora los depósitos de conocimiento especializado que ha construido (mediante la financiación de la educación superior con el dinero del contribuyente), estará en considerable desventaja. La preocupación por la naturaleza y las causas de la «verdad alternativa» nos lleva al siguiente conjunto de problemas, relativos al uso de la información personal.

Privacidad, libertad personal y autonomía

Al reflexionar sobre el impacto de la IA en el comportamiento individual, nos adentramos en un territorio donde es más claro el impacto único de las TIC. Hemos vivido largos periodos de espionaje doméstico, que se ha vinculado con todo tipo de cosas, desde un sesgo en el acceso a las oportunidades basado en prejuicios hasta los pogromos. Sin embargo, hoy las TIC nos permiten mantener registros de larga duración de cualquier individuo que produzca datos almacenables; por ejemplo, cualquiera con facturas, contratos, dispositivos digitales o un historial de crédito, por no mencionar cualquier escrito publicado o el uso de redes sociales. Esto incluye, básicamente, a todo el mundo.

No es solo el almacenamiento y la accesibilidad de los registros digitales lo que cambia nuestra sociedad; es también el hecho de que dichos registros se puedan escrutar mediante algoritmos de reconocimiento de patrones. Hemos perdido la premisa por defecto del anonimato por opacidad (Selinger y Hartzog, 2017). Hasta cierto punto, hoy todos somos famosos: a cualquiera nos puede identificar un desconocido, ya sea mediante un programa de reconocimiento facial, por los datos de nuestras compras o por nuestros hábitos en las redes sociales (Pasquale, 2015). Estos pueden indicar, además de nuestra identidad, nuestras predisposiciones políticas o económicas y qué estrategias podrían ser eficaces para modificarlas (Cadwalladr, 2017a, b). El AA nos permite descubrir nuevos patrones y periodicidades hasta ahora inconcebibles; por ejemplo, que la elección de unas determinadas palabras o, incluso, la presión al escribir a mano con un lápiz digital pueden indicar un estado emocional, incluido si alguien miente (Bandyopadhyay y Hazra, 2017; Hancock et al., 2007), o que un patrón de uso de redes sociales predice categorías de personalidad, preferencias políticas e, incluso, los logros en la vida (Youyou et al., 2015).

El aprendizaje automático ha abierto las puertas a unas capacidades casi humanas e incluso sobrehumanas en la transcripción del habla a partir de la voz y el reconocimiento de emociones a partir de la grabación de audio o vídeo, además de la falsificación caligráfica o la manipulación de imágenes (Valstar y Pantic, 2012; Griffin et al., 2013; Eyben et al., 2013; Kleinsmith y Bianchi-Berthouze, 2013; Hofmann et al., 2014; Haines et al., 2016; Reed et al., 2016; Vincent, 2016; Thies et al., 2016; Deng et al., 2017). Por otra parte, cuanto mejor sea el modelo de que disponemos sobre la probabilidad de que alguien haga algo, menos información necesitaremos para deducir cuál será su paso siguiente (Bishop, 2006; Youyou et al., 2015). Este principio permite la falsificación a partir de la elaboración de un modelo sobre la escritura o la voz de una persona, combinarlo con un texto y producir una «predicción» o transcripción de cómo es probable que dicha persona escriba o pronuncie el texto (Haines et al., 2016; Reed et al., 2016). Ese mismo principio podría permitir a estrategas políticos identificar qué votantes son susceptibles, si no de cambiar de partido preferido, al menos sí de incrementar o reducir su probabilidad de ir a votar y, por consiguiente, dedicar recursos a convencerlos de que lo hagan. Se supone que una estrategia así ha sido determinante en las recientes elecciones en Reino Unido y Estados Unidos (Cadwalladr, 2017a, b; ICO, 2018); de ser cierto, lo más probable es que estos métodos hayan sido probados en otras elecciones anteriores sometidas a una vigilancia menos rigurosa.

Por lo tanto, en nuestra sociedad sería razonable que las personas temieran la difusión de sus acciones o sus creencias por dos razones: en primer lugar, porque facilita hacer predicciones sobre ellas y, en consecuencia, manipularlas; y, en segundo, porque las expone a la persecución por parte de aquellos que desaprueban sus creencias. Esta persecución podría ir desde el acoso hasta el fracaso profesional o pérdida de oportunidades organizativas o empresariales e incluso, en sociedades inestables (o inmorales, al menos) el encarcelamiento o la muerte a manos del Estado. El problema de estos temores no se limita a la tensión que supone para quien los experimenta, también que, al inhibir la libertad personal y de expresión, reducen el número de ideas que se difunden en una sociedad en conjunto y, de este modo, limitan nuestra capacidad de innovar (Mill, 1859; Price, 1972). Responder tanto a las oportunidades como a los desafíos requiere creatividad y librepensamiento en todos los ámbitos de la sociedad.

Autonomía empresarial, ingresos y responsabilidad

Estas reflexiones sobre la autonomía personal nos conducen directamente al último conjunto de problemas que presento aquí y que rara vez se menciona. La biología teórica nos explica que, cuando aumenta la comunicación, la probabilidad de cooperación es superior (Roughgarden et al., 2006). Por otra parte, pese a que la cooperación a menudo es maravillosa, también se puede ver como la transferencia de una parte de la autonomía de la persona hacia un grupo (Bryson, 2015). Podemos recuperar las definiciones del apartado 2, según las cuales el grado de autonomía de una entidad equivale al grado en que determina sus acciones. Lograr autonomía individual requiere sacrificar la autonomía grupal, y viceversa, si bien es cierto que hay maneras de organizar los grupos que proporcionan un grado mayor o menor de libertad a sus integrantes. Por tanto, quizá los límites a la libertad personal que acabo de describir sean el resultado natural de una capacidad de comunicación mayor. Una vez más estoy hablando de las TIC en su conjunto, pero la IA y el AA, gracias a su capacidad para acelerar la búsqueda tanto de soluciones como de colaboradores, son sin duda un componente significativo de esta tendencia, hasta el punto, posiblemente, de cambiar las reglas del juego.

Lo irónico es que muchas personas consideran que, a cuantos más datos, mejor, pero ¿mejor para qué? La estadística básica nos enseña que el número de observaciones que necesitamos para hacer una predicción está limitado por el grado de variación en dichos datos, siempre suponiendo que sean una verdadera muestra aleatoria de su población.8 La cantidad de datos que necesitamos en ciencia o medicina podría limitarse a una fracción minúscula de una determinada población. Sin embargo, si queremos dirigirnos a algunas personas en particular, controlarlas, disuadirlas o, incluso, promoverlas, necesitamos «saberlo todo» de ellas.

Con todo, a nivel de grupo, modificar los costes y beneficios de la inversión puede tener consecuencias más allá de la privacidad y la libertad. Las TIC pueden desdibujar las distinciones entre el cliente y la empresa o, incluso, la definición de una transacción económica, algo que hasta ahora había pasado en gran medida desapercibido (ver Perzanowski y Schultz, 2016; Frischmann y Selinger, 2016). Hoy los clientes trabajan en beneficio de las empresas cuyos servicios o productos adquieren: buscan el precio de los alimentos que compran y los embolsan, introducen datos en los cajeros automáticos de los bancos, rellenan formularios para las aerolíneas, etcétera (Bryson, 2015). El valor de este trabajo no se remunera directamente, sino que damos por supuesto que repercute en una reducción implícita del precio de los productos, de modo que nuestra cesión de trabajo en beneficio de estas corporaciones se podría considerar una especie de trueque. Asimismo, este trabajo no está cuantificado, por lo que desconocemos el valor del ahorro que genera. En este sentido, las TIC propician un mercado negro o, cuando menos, opaco, que reduce la renta media y, por consiguiente, los ingresos fiscales cuando los impuestos se basan en los beneficios o ingresos declarados. Este problema es aplicable a cualquier persona que utilice servicios e interfaces de internet, aunque pasemos por alto las problemáticas definiciones de empleo que plantean las plataformas en línea (ver, sin embargo, O’Reilly, 2017). Por otra parte, nuestra creciente capacidad de obtener valor y poder al tiempo que evitamos que se reflejen en los impuestos podría ayudar a explicar el misterio del supuesto estancamiento de nuestra productividad (Brynjolfsson et al., 2017).

Esta dinámica alcanza su máxima crudeza en el caso de los servicios «gratuitos» en red. Está claro que recibimos información o entretenimiento a cambio de datos o atención. Si consumimos un contenido que va acompañado de publicidad, ofrecemos a los que nos lo suministran la oportunidad de influir en nuestro comportamiento. Lo mismo se puede decir de modos menos convencionales de presión sutil, como las hipotéticas intervenciones políticas mencionadas en el apartado 3.3. No obstante, estos intercambios solo se cuantifican (cuando se cuantifican) de forma agregada y cuando la empresa que presta el servicio es evaluada económicamente. Gran parte de los datos se recogen incluso de un modo especulativo y pueden tener escaso valor hasta que se les encuentra un uso innovador años más tarde.

Las TIC pueden desdibujar las distinciones entre el cliente y la empresa o, incluso, la definición de una transacción económica, algo que hasta ahora había pasado en gran medida desapercibido

Nuestra creciente incapacidad a la hora de cuantificar los ingresos ahí donde se hacía tradicionalmente (sobre los ingresos o durante el intercambio) podría ser otra causa del aumento de la desigualdad de la riqueza, dado que se reduce la parte de la economía que es reconocida, gravada y redistribuida. Una solución obvia sería gravar la riqueza misma (por ejemplo, el valor de mercado de una empresa), en lugar de los ingresos. La era de la información puede facilitar el seguimiento de la distribución de la riqueza y hacer más viable esta estrategia que en el pasado, en especial dada la dificultad de monitorizar los ingresos, que se agrava incluso mientras escribo este texto. Claro que no sirve si la riqueza se grava solo en el país en que la empresa tiene su domicilio social (a menudo, un paraíso fiscal). Puesto que podemos ver la transferencia internacional de datos y el flujo de servicios, en teoría deberíamos poder divulgar la consiguiente redistribución en proporción al volumen y el valor de los datos transmitidos. Imponer un sistema como este a escala internacional requeriría innovaciones considerables, dado que los impuestos convencionales son gestionados por los gobiernos y apenas existen gobiernos transnacionales. Sin embargo, sí existen tratados internacionales y zonas económicas organizadas. Los países grandes o las economías coordinadas como el Área Económica Europea pueden tener capacidad para exigir una redistribución equitativa para sus ciudadanos a cambio del privilegio del acceso a ellos. China ha demostrado con éxito que este acceso no es algo que deba darse por supuesto; y, de hecho, bloquear el acceso puede facilitar el desarrollo de competencia local. Ciudades y estados norteamericanos están usando estrategias similares contra plataformas como Uber y Airbnb.

Cualquier política de IA debería ser desarrollada e implementada teniendo en cuenta la importancia de respetar también los impactos positivos de la tecnología
BBVA-OpenMind-ilustración-Joanna-J-Bryson-la-ultima-decada-y-el-futuro-del-impacto-de-la-IA-en-la-sociedad-Miembros del Parlamento Europeo durante una votación de la Eurocámara en la sede de Estrasburgo, Francia, marzo de 2018
Miembros del Parlamento Europeo durante una votación de la Eurocámara en la sede de Estrasburgo, Francia, marzo de 2018

Por otra parte, la idea de que trasladar una mente humana a la tecnología digital (si esto fuera posible siquiera) daría a esta una mayor longevidad o, incluso, la inmortalidad es ridícula. Los formatos digitales tienen una vida útil media no superior a los cinco años (Lawrence et al., 2000; Marshall et al., 2006). En este caso, la falacia consiste en confundir la computación con una modalidad matemática. La matemática es pura, eterna y cierta, pero ello se debe a que no es real: no se manifiesta en el mundo físico y no puede actuar. Por el contrario, la computación sí es real. Como se ha dicho, la computación necesita tiempo, espacio y energía (Sipser, 2005). Se requiere espacio para almacenar estados (memoria) y no hay una manera permanente de conseguir un almacenamiento de este tipo (Krauss y Starkman, 2000).

Gravar a los robots con impuestos y pensar que podemos alargar la vida humana mediante la IA goza de un atractivo populista, pero son ideas que parten de la ignorancia sobre la naturaleza de la inteligencia

Volviendo a la idea, en apariencia más práctica de gravar con impuestos las entidades de IA, una vez más pasa por alto su falta de humanidad. En concreto, la IA no es contable, como lo son las personas. La misma crítica es aplicable al apoyo de Bill Gates a los impuestos sobre los robots, aunque no defendiera que se les otorgue una personalidad jurídica (The Economist, 2017). No existe un equivalente a los «caballos de potencia» para medir el número de humanos a los que sustituye un algoritmo. Como ya he dicho, frente a una innovación acelerada, no podemos monitorizar ni siquiera el valor de las transacciones con participantes humanos. Cuando llega una tecnología nueva, durante un breve periodo podríamos ver a cuántos humanos deja sin trabajo, pero incluso este cálculo parece reflejar más el estado de la economía actual que el valor real del trabajo reemplazado (Autor, 2015; Ford, 2015). Es decir, en épocas de bonanza, una empresa mantendrá y seguirá formando a sus empleados experimentados, pero en épocas de crisis las corporaciones usarán la coyuntura de excusa para reducir sus plantillas. Aunque el cambio inicial en el empleo fuera un indicador de la «potencia humana» reemplazada, las tecnologías cambian rápidamente las economías en las que se integran y el valor del trabajo humano también varía a gran velocidad.

Es esencial recordar que los artefactos son, por definición, fruto del diseño. Dentro de los límites de las leyes de la física y la computación, gozamos de plena autoría sobre la IA y la robótica. Por consiguiente, los desarrolladores podrán evadir los impuestos de modos inconcebibles para los legisladores acostumbrados al valor fruto del trabajo humano. El proceso de descomponer una corporación en «personas electrónicas» automatizadas magnificaría los actuales problemas derivados del abuso de la personalidad jurídica, como las empresas fantasma que se emplean para blanquear dinero. La consideración, ya restringida, de las grandes empresas como personas jurídicas perdería sentido si no emplearan a ningún trabajador humano (Solaiman, 2016; Bryson et al., 2017).

LOS PRÓXIMOS DIEZ AÑOS: SOLUCIONES Y FUTUROS

Me gustaría reiterar que, como explicaba al principio del apartado 3, la IA ha sido y es un factor asombroso de crecimiento económico y empoderamiento individual. Nos permite conocer, aprender, descubrir y hacer cosas que habrían sido inconcebibles hace cincuenta años. Podemos pasear por una ciudad desconocida, cuyo idioma desconocemos, orientarnos y comunicarnos. Podemos beneficiarnos de la educación que nos brindan las mejores universidades del mundo en nuestra casa, aunque vivamos con un salario reducido en una economía en desarrollo (Breslow et al., 2013). También en el mundo en desarrollo, podemos utilizar el teléfono inteligente local para consultar los precios justos de varios productos agrícolas y otra información útil, como las predicciones meteorológicas, de modo que incluso los agricultores de subsistencia pueden escapar de la pobreza extrema gracias a las TIC. El increíble ritmo al que avanza el Proyecto del Genoma Humano no es más que un ejemplo más de cómo toda la humanidad puede beneficiarse de esta tecnología (Adams et al., 1991; Schena et al., 1996).

Con todo, hay que abordar los problemas antes citados. A continuación expondré mis propuestas respecto a cada uno, empezando por los últimos que he sacado a colación. Seré breve, puesto que conocer las soluciones exige primero identificar los problemas y los problemas identificados aquí son solo propuestas sin consensuar. Además, ya se han sugerido enfoques distintos de enfrentar estos problemas, algo que explico y detallo a continuación.

Empleo y estabilidad social

En el apartado 3.4 descarté la idea de que considerar a la IA como personas jurídicas pueda solucionar las disrupciones en el mercado laboral y la desigualdad de la riqueza que ya sufrimos. De hecho, la creación de personas electrónicas jurídicas incrementaría la desigualdad, al permitir a las empresas y a los ricos eludir su responsabilidad a expensas de la población común. Ahora contamos con indicios sólidos de que los donantes ricos pueden empujar a los políticos a adoptar posturas extravagantes y extremistas (Barber, 2016), con unos resultados potenciales desastrosos si se combinan con una creciente presión en favor de la polarización política y las políticas identitarias. Asimismo, es importante tener en cuenta que no siempre los muy ricos revelan su riqueza.

BBVA-OpenMind-ilustración-Joanna-J-Bryson-la-ultima-decada-y-el-futuro-del-impacto-de-la-IA-en-la-sociedad-Un teleprónter muestra a una estudiante que hace de «alumna virtual» en una clase del MIT grabada para cursos en línea en abril de 2013 en Cambridge, Massachusetts
Un teleprónter muestra a una estudiante que hace de «alumna virtual» en una clase del MIT grabada para cursos en línea en abril de 2013 en Cambridge, Massachusetts

En las democracias, otro desencadenante de periodos de marcada desigualdad y alta polarización son los resultados electorales ajustados, con candidatos que no se habría esperado que empataran. Esto por supuesto abre la puerta a (o al menos reduce el coste de) manipular resultados electorales, también por parte de poderes externos. Person (2018) sugiere que los países débiles pueden estar practicando un «equilibrio por intrusión negativa» contra los más fuertes, influyendo en elecciones y, por ende, en las capacidades de gobernanza y de autonomía, en un intento por reducir desequilibrios de poder a favor de la nación más débil.

Si hay personas o coaliciones de personas lo bastante ricas para reducir la eficacia de los gobiernos, entonces también los Estados perderán su autonomía, incluida la estabilidad de sus fronteras. La guerra, la anarquía y la inestabilidad que traen consigo no son deseables para nadie, con la posible excepción de quienes se benefician de actividades ilegales. Una estabilidad que permita planificar negocios y familias beneficia a todos. La llegada de las corporaciones trasnacionales ha estado acompañada de un aumento sustancial del número y poder de otras organizaciones de carácter supranacional. Esto puede ser una buena noticia si ayudan a coordinar la cooperación en asuntos de interés transnacional, pero no hay que olvidar que la geografía siempre será un factor determinate de muchos asuntos de gobierno. Cómo está protegida la casa de nuestros vecinos contra incendios o si sus hijos están vacunados y bien educados son cosas que siempre afectarán nuestra calidad de vida. Agua potable, alcantarillado, seguridad individual, acceso a opciones de transportes… Los gobiernos locales seguirán teniendo un papel de extrema importancia en el futuro indefinido, incluso si algunas de esas funciones pasan a ser responsabilidad de corporaciones o de gobiernos transnacionales. Por tanto, necesitan contar con los recursos adecuados.

En el apartado 3.4 recomendaba, como posible solución al impacto de las TIC en la desigualdad, un cambio de prioridades, pasando de documentar y gravar los ingresos o beneficios a hacer lo propio con la riqueza. El mayor problema de esta propuesta es que podría requerir una redistribución internacional, no solo nacional, dado que las corporaciones más ricas de internet9 están concentradas en un solo país, pese a que no hay duda de que las que trabajan fuera de China (y cada vez más también las que operan en ese país) derivan su riqueza de su actividad en todo el mundo. Gestionar esta situación exigirá innovaciones importantes en las políticas. Por suerte, casi todas las partes implicadas, incluidas las principales corporaciones, tienen interés en evitar la guerra y otras formas de inestabilidad social y económica. Las guerras mundiales y las crisis financieras del siglo XX mostraron que este argumento era especialmente aplicable a los muy ricos, que, al menos desde el punto de vista económico, son los que más tienen que perder (Milanovic, 2016; Scheidel, 2017), aunque rara vez pierden la vida.

En especial me parecen admirables las soluciones flexibles ante la crisis económica aplicadas por Alemania durante la última recesión, con políticas que permitían a las empresas hacer despidos parciales de sus trabajadores, que a cambio obtenían prestaciones parciales y tiempo libre (Eichhorst y Marx, 2011, p. 80). Esto les permitía reciclar su formación al tiempo que mantenían, durante un periodo prolongado, un nivel de vida cercano al acostumbrado. También permitía a las empresas conservar a sus empleados más valiosos mientras cambiaba el rumbo de su negocio o, sencillamente, buscaban liquidez. Habría que fomentar este tipo de flexibilidad, de modo que tanto los gobiernos como las personas conservaran su capacidad económica en largos periodos de crisis. De hecho, una flexibilidad suficiente puede evitar que los periodos de cambio intenso se conviertan en crisis.

En mi opinión, si podemos reducir la desigualdad también se reducirán los problemas de empleo, con independencia de que el cambio se acelere o no. Vivimos en una sociedad de una abundancia fastuosa y podemos permitirnos mantener, aunque sea parcialmente, a los individuos mientras vuelven a formarse. Y nuestra capacidad de innovación es fantástica. Si el dinero circula por la sociedad, las personas encontrarán la manera de emplearse y prestarse servicios entre sí (Hunter et al., 2001; Autor, 2015). Una vez más, es posible que esto ya ocurra; desde luego explicaría la reducción en el ritmo de cambio en la sociedad que algunos autores afirman haber detectado (por ejemplo, Cowen, 2011). Es posible que muchas personas sigan encontrando vías para el autoempleo y, si tienen éxito, contraten a terceros produciendo servicios dentro de sus propias comunidades. Estos servicios pueden ser desde sociales, como la docencia, las labores policiales o el periodismo, familiares y domésticos, hasta estéticos, como el paisajismo, la restauración, la música, el deporte y otras actividades comunitarias.

Permitir o no a dichas personas vivir bien y disfrutar de las ventajas de su sociedad es una decisión de política económica. Por ejemplo, a todos nos gustaría que una familia pudiera permitirse una semana de vacaciones en una gran ciudad vecina o que sus hijos disfrutarán de movilidad social, por ejemplo con un acceso a las mejores universidades de elite de la zona de su elección basado en criterios puramente meritocráticos. Por supuesto, en este siglo esperamos un acceso universal y gratuito a la atención sanitaria y a la educación primaria y secundaria. Las personas deberían poder vivir con sus familias y no tener que perder gran parte del día desplazándose a y desde el lugar de trabajo; para ello hacen falta tanto una distribución determinada de las oportunidades laborales como una infraestructura de transporte excelente y ampliable (y, en consecuencia, probablemente pública).

Si podemos reducir la desigualdad, también se reducirán los problemas de empleo. Vivimos en una sociedad de una abundancia fastuosa y podemos permitirnos mantener, aunque sea parcialmente, a los individuos mientras vuelven a formarse

El nivel de inversión en una infraestructura de este tipo depende, en parte, de la inversión pública y privada en impuestos y también de cómo se gasta dicha riqueza. En el pasado, en ocasiones hemos dedicado gran parte de nuestros recursos a la destrucción de las infraestructuras de los demás y a la reparación de las propias, a causa de la guerra. Hoy, aunque evitemos los enfrentamientos armados abiertos, debemos abordar la necesidad de abandonar las viejas infraestructuras que ya no son viables a causa del cambio climático e invertir en otras nuevas. No hay duda de que ello plantea una oportunidad considerable de redistribución, en particular en ciudades ahora mismo deprimidas, como demostró el New Deal de Roosevelt, con políticas que redujeron la desigualdad en Estados Unidos mucho antes de la Segunda Guerra Mundial (McCarty et al., 2016; Wright, 1974).

Coincido con quienes no creen que la renta básica universal sea un gran mecanismo de redistribución, por varias razones. En primer lugar, muchos esperan financiarla mediante el recorte de los servicios públicos, pero es posible que estos, a su vez, sean cada vez más necesarios a medida que números crecientes de personas queden relegadas por su incapacidad para responder a las complejidades técnicas y económicas de un mundo en rápida transformación. En segundo lugar, he visto a demasiados individuos que ante las cámaras evitaban comprometerse, con el argumento de que «el gobierno nunca ha hecho nada por mí», sin tener en cuenta la enorme inversión en su educación y seguridad y en infraestructuras. Creo que una renta básica no tardaría en volverse invisible y a darse por supuesta, como parece suceder con la recogida de basuras y los servicios de urgencias.

Pero, sobre todo, preferiría que la redistribución restituyera su importancia a las comunidades cívicas locales; es decir, que circulara a través del empleo, ya fuera directo o a través de trabajadores autónomos y clientes. La IA y las TIC facilitan los vínculos con personas de todo el mundo; favorecen incluso fantasías de entretenimiento con tecnología de IA que no son humanas. Sin embargo, el bienestar de nuestros vecinos tiene un impacto gigantesco en el nuestro y, en muchos sentidos, ambos están ligados a través de la calidad del aire y el agua, la educación, los servicios de bomberos y urgencias y, por supuesto, la seguridad. Los mejores vecindarios están conectados por el conocimiento y la preocupación por las personas; es decir, por la amistad.

Un mecanismo efectivo de incrementar la redistribución consiste, simplemente, en subir los salarios mínimos (Lee, 1999; Schmitt, 2013). Aunque solo se aplique a los empleados del sector público, sus efectos se transmiten al resto de empresas, puesto que el sector público compite por los mejores trabajadores y, por supuesto, los mayores salarios también tienen la ventaja de incentivar a los buenos trabajadores a contribuir a la sociedad mediante el servicio público. Pese a que este mecanismo ha sido criticado por varias razones (ver, por ejemplo, Meyer, 201٦), parecen existir pruebas sólidas de su impacto positivo general.

Privacidad, libertad e innovación

Volviendo a los problemas relacionados de la privacidad y la autonomía individual, abordaré un área sobre la cual es más difícil hacer predicciones o estas son más dispares. No hay duda de que la era de la privacidad propiciada por la opacidad se ha terminado, dado que ahora tenemos más información y más medios para filtrarla y comprenderla que nunca antes; es muy improbable que esto cambie, a menos que un desastre de alcance mundial acabe con nuestra capacidad digital. No obstante, durante mucho tiempo hemos vivido en espacios donde nuestros gobiernos y nuestros vecinos podían, en teoría, arrebatarnos nuestra propiedad privada, pero rara vez lo hacían, excepto mediante un acuerdo previo, como los impuestos (Christians, 2009). ¿Podremos alcanzar un nivel de control similar sobre nuestros datos personales? ¿Podremos disfrutar de una privacidad y autonomía efectivas en la era de la información? De no ser así, ¿cuáles serían las consecuencias?

Para empezar, hay que decir que cualquier enfoque de la defensa de los datos personales y la protección de los ciudadanos ante la predicción, la manipulación o, simplemente, el control por medio de sus datos personales pasa por unos sólidos mecanismos de encriptado y ciberseguridad, sin puertas traseras. En la ciberseguridad, todas las puertas traseras han sido aprovechadas por actores malintencionados (Abelson et al., 2015). La falta de ciberseguridad debería considerarse un riesgo significativo para la IA y para la economía digital, en especial en el internet de las cosas. Si no podemos confiar en los dispositivos inteligentes, o ni siquiera en los conectados, no deberían ser bienvenidos ni en casa ni en los lugares de trabajo (Singh et al., 2016; Weber, 2010).

Analistas de la privacidad y su dimensión tecnológica han sugerido que los datos sobre una persona no deberían considerarse un activo, sino una parte de esa persona, es decir, una prolongación de su identidad individual. Como tales, los datos personales no pueden ser propiedad de nadie más que de la persona a la que se refieren; cualquier otro uso sería por cesión o por contrato y no puede traspasarse ni cederse a terceros sin consentimiento (Crabtree y Mortier, 2015; Gates y Matthews, 2014). De este modo los datos personales se asemejarían más a la persona misma y, si fueran vulnerados, la persona afectada tendrá la protección de la ley. En este momento se están desarrollando varias innovaciones tecnológicas y jurídicas en consonancia con este modelo, aunque, dada la facilidad de acceso a los datos y la dificultad de demostrar dicho acceso, es posible que los datos sean mucho más difíciles de defender que la propiedad física de una persona (Rosner, 2014; Jentzsch, 2014). Por fortuna, ya hay al menos algunos gobiernos que han asumido la tarea de defender los intereses de sus ciudadanos en materia de datos (por ejemplo, con el Reglamento General de Protección de Datos de la Unión Europea [RGPD]; ver Albrecht, 201٦, y Danezis et al., 2014). Hay razones excelentes para hacerlo, porque, como ya he dicho, la extracción no deseada de datos masivos y la manipulación de las preferencias políticas individuales y de otros comportamientos personales a partir de los perfiles individuales de las redes sociales tienen consecuencias tanto políticas como económicas.

Las entidades mejor situadas para defender nuestra privacidad son los gobiernos, en principio mediante demandas judiciales colectivas contra, como mínimo, los ejemplos más indignantes de violación de los datos personales. Claro que dichas estrategias podrían requerir innovaciones importantes en el derecho internacional o los tratados internacionales, dado que algunas de las acusaciones de manipulación más famosas tienen que ver con los resultados electorales de países enteros. Sin ir más lejos, el referéndum sobre el Brexit, en Reino Unido, ha costado al país, en los dos años desde la votación (sin que se haya producido aún la salida efectiva de la Unión Europea), 23.000 millones de libras esterlinas en recaudación fiscal perdida al año, es decir, 440 millones de libras a la semana (Morales, 2018). Como ya mencioné, el referéndum sobre el Brexit estuvo al parecer influido por conocidos algoritmos de IA financiados, como se ha demostrado, por inversión extranjera (ICO, 2018). La paradoja es que reparar un perjuicio semejante requeriría, casi con total seguridad, colaboración internacional.

Por desgracia los gobiernos no siempre tienen como prioridad los intereses de sus ciudadanos o, al menos, no siempre y no todos sus intereses. De hecho, durante el siglo XX y en términos globales, un individuo tenía muchas más probabilidades de morir a manos de su propio gobierno que de alguien extranjero (Valentino, 2004). Más recientemente, China ha estado utilizando un sistema de vigilancia supuestamente dedicado a la seguridad de sus ciudadanos para destruir las vidas y las familias de más de un millón de habitantes, a los que ha encerrado en campamentos de reeducación por haberse declarado musulmanes (Human Rights Watch, 2018; Editorial, 2018). En términos más generales, cuando los gobiernos tienen miedo de que haya informantes o disidentes, o incluso eluden su responsabilidad de garantizar la dignidad y la prosperidad de todos los habitantes de su territorio, pueden recurrir a la represión y al asesinato, cosa que hacen a menudo. Es muy peligroso que un gobierno considere que gobernar a un grupo de personas dentro de sus fronteras entraña un coste o un problema superior a su valor colectivo potencial en términos de trabajo, seguridad e innovación. Esta grave amenaza se ve intensificada por la promesa y el auge de la automatización inteligente como fuente nueva y controlable y apropiable tanto de trabajo como de innovación. La exageración en el discurso sobre la IA incrementa el riesgo de que un gobierno minusvalore erróneamente vidas humanas y considere que su valor es inferior al coste percibido de mantenerlas.

No podemos saber con seguridad dónde desembocarán las tendencias actuales, pero es de esperar que, cuando se ejerza algún tipo de represión, la IA y las TIC serán los medios empleados para predecir esos díscolos potenciales y monitorizarlos. Se dice que China está usando sistemas de reconocimiento facial no solo para identificar a personas, también para interpretar su estado de ánimo y concentración, tanto en los campos de reeducación como en las escuelas. Los estudiantes y, quizá, los profesores pueden ser castigados si no aparentan estar contentos con su educación (o reeducación). Los sistemas de TIC capaces de detectar el grado de comprensión y atención de los estudiantes y de informar a los profesores, a fin de que adapten su docencia y sus materiales, también se están promoviendo en Occidente y constituyen una parte esencial de la formación personalizada con IA fuera de las aulas convencionales. Cabe suponer que se están desarrollando y, probablemente, aplicando sistemas similares en otros sectores profesionales (por ejemplo, Levy, 2015).

Si permitimos que esta tendencia se mantenga, podemos esperar que nuestras sociedades ganen en seguridad (o, al menos, que haya más paz en las calles) y homogeneidad, pero pierdan capacidad de innovación y diversidad. Más personas que nunca cuentan con los medios y los recursos económicos para viajar de un país a otro, de modo que cabe esperar que los países que ofrezcan mayor calidad de vida, también en términos de gobernanza y protección individual, atraerán a personas preocupadas por la libertad personal. Podemos esperar también que, gracias al poder combinado del trabajo y la innovación de dichos inmigrantes y de la población existente, estos países puedan llegar a protegerse e, incluso, a proteger a otros. Ya hemos visto que la Unión Europea ejercía una protección de este tipo con regulaciones éticas para la IA, como el RGPD. Y Naciones Unidas trabaja con instrumentos, como el Acuerdo de París, a fin de protegernos a todos del cambio climático. En unas sociedades tan prósperas y bien gobernadas, sería de esperar un incremento de los niveles de libertad, no un descenso, a medida que aumente la concienciación sobre los problemas derivados de la vigilancia que ya practicamos; por ejemplo, en la microgestión del tiempo personal de nuestros hijos (Lee et al., 2010; Bryson, 2015).

La exageración en el discurso sobre la IA incrementa el riesgo de que un gobierno minusvalore erróneamente vidas humanas y considere que su valor es inferior al coste percibido de mantenerlas

Por desgracia para esta visión optimista de los remansos de bienestar en que se convertirían los países bien gobernados, en la práctica la tecnología se utiliza, cada vez más, para frustrar toda la migración transfronteriza que no sea de élite (Miller, 2017). Además de los genocidios y las matanzas masivas, otra tendencia histórica observada a menudo en las guerras y las revoluciones políticas (por ejemplo, la Polonia ocupada por los nazis, la Checoslovaquia de la Guerra Fría, el Irán de la revolución, la Unión Soviética de Stalin, la Camboya de los jemeres rojos, la China de la Revolución Cultural y la actual Arabia Saudí) es el traslado forzoso o, incluso la ejecución no solo de disidentes, también de intelectuales. A menudo, se considera que mantener el control pasa por eliminar cualquier liderazgo potencial de signo innovador, aunque sea dicho liderazgo lo que se precisa para garantizar una ciudadanía sana y una sociedad estable (King y Zeng, 2001), por no hablar de un progreso tecnológico que otorge ventaja en una carrera armamentística (Yan, 2006). Estos movimientos tienden a desmoronarse solo después de años de sufrimiento prolongado, a menudo después de haber durado lo suficiente para dejar claro que sus políticas dañaban la competitividad internacional del país. La IA facilita de manera asombrosa la identificación y el aislamiento de cualquier grupo a reprimir (o incluso de los individuos que muestran determinadas actitudes). Solo la innovación en los mecanismos de protección contra gobiernos corruptos, ególatras o peligrosos en general nos permitirá proteger la diversidad y la libertad en nuestras sociedades y, con ella, nuestra seguridad.

Una vez más, la capacidad de la IA al servicio del buen gobierno y sociedades más justas y sólidas es muy real y se está desarrollando ampliamente. Así, la IA se utiliza contra los delitos financieros, el fraude y el blanqueo de dinero y para la protección de personas, empresas y gobiernos frente a influencias ilícitas e ilegales (Ngai et al., 2011). Se trata de algo razonable y parte de las obligaciones contractuales convencionales de los prestatarios de servicios financieros y, por supuesto, de los gobiernos. También puede ser ético que, cuando un ciudadano ha elegido un determinado comportamiento mediante un deseo expreso, sus dispositivos inteligentes u otros organismos le propinen «un empujoncito» para ayudarlo a cumplir con sus propósitos; por ejemplo, en relación con el ejercicio físico o los hábitos de sueño. Sin embargo, es importante reconocer los peligros crecientes tanto de la coerción explícita como de la desorientación implícita que acompañan el incremento masivo del conocimiento y el consiguiente poder derivado de la IA. Por lo tanto, la IA hace más urgente invertir en la investigación y el desarrollo de las humanidades y las ciencias sociales; en especial en ciencias políticas y sociología. A continuación abordo el problema de regular la IA.

La responsabilidad individual, empresarial y regulatoria por la IA

Como punto de partida del debate sobre la responsabilidad en la era de la IA, me gustaría volver a poner el acento, con brevedad, en el papel del diseño y las arquitecturas en la IA. Quizá una vez más por la confusión de lo inteligente con lo humano, en ocasiones he oído decir que tal o cual característica de la IA es inevitable; lo he escuchado incluso de boca de expertos en este campo pertenecientes a organizaciones influyentes. No hay ningún aspecto de la IA que sea más inevitable que la esclavitud o el derecho hereditario a la monarquía. Por supuesto, ambos fenómenos siguen existiendo en algunos lugares, pero, pese a los beneficios económicos que representaban para los que ocupaban el poder, en gran medida han sido erradicados. De un modo similar, podemos regular como mínimo los productos comerciales legales para exigir arquitecturas seguras o, al menos, transparentes (Boden et al., 2011). Podemos exigir (como ha hecho hace poco la Comisión Europea) que las decisiones que toman las máquinas sean identificables y explicables (Goodman y Flaxman, 2016).

Insistir en la responsabilidad humana de los sistemas de IA no significa que debamos (o podamos) responder del valor de cada peso en una red neuronal ni del impacto de cada dato individual empleado en su aprendizaje. No solo sería poco práctico, sino que no corresponde ni al criterio ni al medio por los cuales tienen que rendir cuentas las organizaciones hoy día. Una empresa no es responsable de la organización sináptica del cerebro de sus cuentas; es responsable del estado de estas. A decir verdad, la introducción de la IA en un proceso empresarial o de gobierno no supone demasiados cambios en cuanto a responsabilidad. Debemos ser capaces de caracterizar nuestros sistemas lo bastante bien para detectar si se están comportando de acuerdo con lo esperado (Liu et al., 2017). Es algo factible y se debe fomentar (Bryson y Theodorou, 2019).

Promover la responsabilidad comporta garantizar la rendición de cuentas (Santoni de Sio y Van den Hoven, 2018). Un modo fácil de conseguirlo es hacer entender a gobiernos y fiscales que los sistemas de software tienen, en buena parte, los mismos problemas de responsabilidad que cualquier otro artefacto fabricado: si se les da un uso inadecuado, es culpa del propietario; si generan daños cuando se utilizan adecuadamente, están defectuosos y es probable que el fabricante sea el responsable, a menos que pueda demostrar que ha respetado la diligencia debida y que han concurrido circunstancias excepcionales. El mero hecho de que parte del sistema sea autónomo no invalida este argumento, del mismo modo que se puede atribuir al banco aquellos errores generados por sus contables o sus clientes cuando los sistemas del banco deberían haberlos limitado o alertado sobre ellos. Sin duda, esta cuestión nos plantea problemas; en especial porque son muchas las aplicaciones de la tecnología de IA en contextos internacionales, pero organizaciones como la Unión Europea, Naciones Unidas y la OCDE se están esforzando para coordinar esfuerzos con los que proteger a sus ciudadanos.

Por supuesto los sistemas de IA no son exactamente como los sistemas más deterministas, pero exagerar las consecuencias de dichas diferencias es problemático. Las malas ideas pueden esconderse detrás de los «artificios» de la confusión que genera la IA sobre cuestiones de identidad y libertad de acción (Bryson, 2018). Una tendencia preocupante en la gobernanza de la IA es la tendencia a adoptar el alineamiento de valores como solución a problemas de la ciencia en general y de ética de la IA en particular. La idea es que se debe garantizar que la sociedad dirige y aprueba el rumbo que adoptan la ciencia y la tecnología (Soares y Fallenstein, 2014). Por muy seguro y democrático que suene esto, quizá sería mejor considerarlo un argumento populista. Empecemos por la ciencia: la ciencia es un mecanismo basado en principios que permite a la sociedad percibir su contexto con precisión. Por el contrario, la gobernanza es cómo elige una sociedad entre diferentes vías de acción posibles. El sentimiento popular no puede decidir qué es cierto sobre la naturaleza; solo determinar qué políticas son más fáciles de aplicar. Limitar la capacidad de una sociedad a percibir solo lo que quiere saber equivaldría a cegarla (Caliskan et al., 2017; ver análisis final). De un modo similar, el sentir popular influye en gran medida en las políticas aplicadas, pero desde luego no las determina. Por lo tanto, preguntar a la población qué espera de la IA es como preguntarle qué película de ciencia ficción preferiría ver hecha realidad: no hay garantía alguna de que elijan algo factible (por no hablar de deseable). Los ciudadanos deben determinar, a través del gobierno, sus prioridades económicas y políticas, pero el verdadero progreso casi nunca se consigue mediante referéndum. Por el contrario, la gobernanza suele consistir en negociaciones informadas entre un número limitado de negociadores expertos, con el apoyo de un número mayor, aunque también limitado, de conocedores de la materia.

Una tendencia preocupante en la gobernanza de la IA es la tendencia a adoptar el alineamiento de valores como solución a problemas de la ciencia en general y de ética de la IA en particular

Asimismo, a pesar de los enormes recursos que la explotación de la computación y la IA hacen posibles, es probable que los negociadores humanos sigan siendo siempre la mejor elección a la hora de determinar políticas. En parte porque, en calidad de ciudadanos, podemos identificarnos con quienes representamos y establecer con ellos una relación de confianza y compromiso para gestionar las decisiones negociadas. Pero, sobre todo, los representantes humanos pueden ser responsabilizados y convencidos de maneras que siempre estarán vetadas a un sistema de IA. No podemos diseñar sistemas para que se impliquen en las decisiones sociales como lo hace la inteligencia humana (o, de hecho, la inteligencia de cualquier animal social) tras siglos de evolución. No podemos hacerlo mediante el diseño, porque, por su naturaleza, es un proceso que se puede descomponer, mientras que la evolución ha descubierto repetidamente que la preocupación por la posición social debe ser un elemento inextricable de la inteligencia de los individuos de cualquier especie que dependa de estrategias sociales para su supervivencia. Así, nuestro sistema de justicia se basa en la disuasión so pena de aislamiento, pérdida de poder o de posición social. No podemos aplicar estos criterios de justicia a las máquinas que diseñamos y no podemos exigir responsabilidades mediante máquinas que no diseñamos cuidadosamente (Bryson et al., 2017; Bryson y Theodorou, 2019).

Por último, hay quienes han manifestado su preocupación por la potencial imposibilidad de regular la IA, dado su rápido ritmo de cambio. Es cierto que las capacidades humanas, incluida la de respuesta, son limitadas. Además, solo se pueden legislar a un ritmo determinado. De hecho, se introducen plazos y demoras en el proceso legislativo para garantizar que el ritmo de cambio no sea excesivo para la planificación tanto de las empresas como de las personas (Holmes, 1988; Cowen, 1992; Ginsburg, 2005; Roithmayr et al., 2015). Por consiguiente no es de esperar que la legislación siga el ritmo de cambio cada vez más acelerado que generan la IA y las TIC. Ya he sugerido que un mecanismo para forjar políticas sensatas puede ser contar con expertos que trabajen a través de organizaciones profesionales describiendo estándares (Bryson y Winfield, 2017). En tal caso, el papel del gobierno se reduciría a supervisar esta labor y aplicar sus resultados. Los argumentos que he expuesto aquí (y en Bryson y Theodorou, 2019) podrían interpretarse como una generalización de este principio. Me refiero a que no necesitamos cambiar la legislación, basta asegurarnos de que las organizaciones que desarrollan o explotan la IA se responsabilizan de las consecuencias de las acciones de sus sistemas usando los mecanismos de control tradicionales. Solo entonces estas organizaciones se verán obligadas a innovar en transparencia tanto como en el resto de apartados, a fin de poder demostrar que siempre han seguido la diligencia debida en sus sistemas.

CONCLUSIONES

La IA ya está cambiando la sociedad a un ritmo más rápido de lo que pensamos, pero no es una experiencia tan inédita ni única como a menudo nos hacen creer. Otros avances, como el lenguaje y la escritura, las corporaciones y los gobiernos, las telecomunicaciones y el petróleo, ya ampliaron antes nuestras capacidades, alteraron nuestras economías y trastocaron nuestro orden social; en general, aunque no siempre y no para todos, para mejor. La prueba de que, de media, estamos mejor gracias al progreso es, irónicamente, quizá, la mayor amenaza a que nos enfrentamos hoy: debemos conseguir una vida sostenible y evitar la desaparición de la biodiversidad.

No obstante, la IA en particular y las TIC en general podrían requerir innovaciones radicales en nuestro modo de gobernar y, en especial, de recaudar dinero para la redistribución de riqueza. Nos enfrentamos a transferencias de riqueza transnacionales propiciadas por innovaciones empresariales que nos han arrebatado la capacidad de medir o identificar siquiera el nivel de ingresos generado. Además, esta nueva moneda de valor incognoscible consiste a menudo en datos personales y los datos personales dan a quienes los poseen un inmenso poder de predicción.

Sin embargo, más allá de los problemas económicos y de gobernanza, debemos recordar que la IA amplía y mejora lo que significa ser humano; en particular, nuestra capacidad de resolución de problemas. Frente a los desafíos globales de seguridad y sostenibilidad, estas mejoras prometen seguir aportando una ayuda significativa, siempre que desarrollemos mecanismos adecuados para regularlas. Con un catálogo sensato de políticas y organismos de regulación, deberíamos seguir ampliando y, también, limitando cuando corresponda, el potencial de aplicación de la IA.

Agradecimientos

Me gustaría dar las gracias a mis colaboradores; en especial, a Karine Perset por seleccionarme para la OCDE y por muchas buenas conversaciones, a mis (recientes) estudiantes de doctorado Andreas Theodorou y Rob Wortham, a Alan Winfield, con quien he trabajado revisando parte del contenido del presente artículo y ampliándolo para incluir el papel de las asociaciones profesionales (ver Bryson y Winfield, 2017), a Karen Croxson de la Financial Conduct Authority, la autoridad financiera de Reino Unido, y a Will Lowe, en especial por sus comentarios sobre los apartados relativos a las relaciones internacionales. Mi agradecimiento a la OCDE por autorizarme a reutilizar parte del material en trabajos académicos, como este libro. También quiero dar las gracias al AXA Research Fund por la financiación parcial de mi trabajo sobre la ética de la IA entre 2017 y 2020.

Notas

Bibliografía

—Abelson, H.; Yerson, R.; Bellovin, S. M.; Benaloh, J.; Blaze, M.; Diffie, W.; Gilmore, J.; Green, M.; Lyau, S.; Neumann, P. G. et al. (2015): «Keys under doormats: mandating insecurity by requiring government access to all data and communications», en Journal of Cybersecurity, vol. 1, n.º 1, p. 69.

—Adams, M. D.; KelleY, J. M.; Gocayne, J. D.; Dubnick, M.; Polymeropoulos, M. H.; Xiao, H. et al. (1991): «Complementary DNA sequencing: expressed sequence tags and human genome project», en Science, vol. 252, n.º 5.013, pp. 1.651-1.656.

—Aker, J. C. y Mbiti, I. M. (2010): «Mobile phones and economic development in Africa», en Journal of Economic Perspectives, vol. 24, n.º 3, pp. 207-232.

—Albrecht, J. P. (2016): «How the GDPR will change the world», en European Data Protection Law Review, vol. 2, n.º 3, pp. 287-289.

—Armstrong, H. y Read, R. (1995): «Western European micro-states and EU autonomous regions: the advantages of size and sovereignty», en World Development, vol. 23, n.º 7, pp. 1.229-1.245.

—Assael, Y. M; Shillingford, B.; Whiteson, S. y De Freitas, N. (2016): «LipNet: Sentence-level lipreading», documento ArXiv en preimpresión, n.º 1611.01599.

—Autor, D. H. (2015): «Why are there still so many jobs? The history and future of workplace automation», en The Journal of Economic Perspectives, vol. 29, n.º 3, pp. 3-30.

—Bandyopadhyay, A. y Hazra, A. (2017): «A comparative study of classifier performance on spatial and temporal features of handwritten behavioural data», en A. Basu, A. Das, P. Horain y S. Bhattacharya (eds.) (2016): Intelligent Human Computer Interaction: 8th International Conference, Pilani, India, del 12 al 13 de diciembre, Proceedings, Springer International Publishing, Cham, pp. 111-121.

—Barber, M. J. (2016): «Ideological donors, contribution limits, and the polarization of american legislatures», en The Journal of Politics, vol. 78, n.º 1, pp. 296-310.

—Barnosky, A. D. (2008): «Megafauna biomass tradeoff as a driver of quaternary and future extinctions», en Proceedings of the National Academy of Sciences, n.º 105 (suplemento 1), pp. 11.543-11.548.

—Barrett, D. P.; Barbu, A.; Siddharth, N. y Siskind, J. M. (2016): «Saying what you’re looking for: linguistics meets video search», IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 38, n.º 10, pp. 2.069-2.081.

—Barrows, E. M. (2000): Animal behavior desk reference: a dictionary of animal behavior, ecology, and evolution, Boca Ratón, CRC press.

—Bhorat, H.; Naidoo, K. y Pillay, K. (2016): «Growth, poverty and inequality interactions in Africa: an overview of key issues», notas de política del PNUD en África 2016-02, Nueva York, Programa de las Naciones Unidas para el Desarrollo.

—Bishop, C. M. (1995): Neural Networks for Pattern Recognition, Nueva York, Oxford University Press.

—(2006): Pattern Recognition and Machine Learning, Londres, Springer.

—Boden, M.; Bryson, J.; Caldwell, D.; Dautenhahn, K.; L. Edwards, S. Kember et al. (2011): «Principles of robotics», Engineering and Physical Sciences Research Council (EPSRC). Disponible en https://epsrc.ukri.org/research/ourportfolio/themes/engineering/activities/principlesofrobotics/

—Bostrom, N. (2012): «The superintelligent will: motivation and instrumental rationality in advanced artificial agents», en Minds and Machines, vol. 22, n.º 2, pp. 71-85.

—Breslow, L.; Pritchard, D. E.; Deboer, J.; Stump, G. S.; Ho, A. D. y Seaton, D. T. (2013): «Studying learning in the worldwide classroom: research into edX’s first MOOC», en Research & Practice in Assessment, n.º 8, pp. 13-25.

—Brundage, M.; Avin, S.; Clark, J.; Toner, H.; Eckersley, P.; Garfinkel, B.; Dafoe, A.; Scharre, P. et al. (2018): «The malicious use of artificial intelligence: forecasting, prevention, and mitigation», Future of Humanity Institute, Universidad de Oxford, Centre for the Study of Existential Risk, Universidad de Cambridge, Center for a New American Security, Electronic Frontier Foundation y OpenAI, informe técnico, basado en un taller celebrado en Oxford en febrero de 2017. Disponible en https://maliciousaireport.com/

—Brundage, M. y Bryson, J. J. (2017): «Smart policies for artificial intelligence», en preparación, disponible como documento ArXiv, n.º 1608.08196.

—Brynjolfsson, E.; Rock, D. y Syverson, C. (2017): «Artificial intelligence and the modern productivity paradox: A clash of expectations and statistics», Cambridge, National Bureau of Economic Researc.

—Bryson, J. J. (2003): «The Behavior-Oriented Design of modular agent intelligence», en R. Kowalszyk, J. P. Müller, H. Tianfield y R. Unland (eds.), Agent Technologies, Infrastructures, Tools, and Applications for e-Services, Berlín, Springer, pp. 61-76.

—(2008): «Embodiment versus memetics», en Mind & Society, vol. 7, n.º 1, pp. 77-94.

—(2015): «Artificial intelligence and pro-social behaviour», en C. Misselhorn (ed.), Collective Agency and Cooperation in Natural and Artificial Systems: Explanation, Implementation and Simulation, Berlín, Springer, pp. 281-306.

—(2018): «Patiency is not a virtue: the design of intelligent systems and systems of ethics», en Ethics and Information Technology, vol. 20, n.º 1, pp. 15-26.

—Bryson, J. J.; Diamantis M. E. y Grant, T. D. (2017): «Of, for, and by the people: the legal lacuna of synthetic persons», en Artificial Intelligence and Law, vol. 25, n.º 3, pp. 273-291.

—Bryson, J. J. y Theodorou, A. (2019): «How society can maintain human-centric artificial intelligence», en M. Toivonen-Noro y E. SaarI (eds.), Human-Centered Digitalization and Services, Springer, próxima publicación.

—Bryson, J. J. y Winfield, A. F. T. (2017): «Standardizing ethical design for artificial intelligence and autonomous systems», en Computer, vol. 50, n.º 5, pp. 116-119.

—Bullinaria, J. A. y Levy, J. P. (2007): «Extracting semantic representations from word co-occurrence statistics: a computational study», en Behavior Research Methods, vol. 39, n.º 3, pp. 510-526.

—Bullough, O. (2018): «The rise of kleptocracy: the dark side of globalization», en Journal of Democracy, vol. 29, n.º 1, pp. 25-38.

—Cadwalladr, C. (2017a): «Revealed: How US billionaire helped to back Brexit. Robert Mercer, who bankrolled Donald Trump, played key role with “sinister” advice on using Facebook data», en The Guardian, 25 de febrero.

—(2017b): «Robert Mercer: The big data billionaire waging war on mainstream media», en The Guardian, 26 de febrero.

—Calinon, S.; D’halluin, F.; Sauser, E. L.; Caldwell, D. G. y Billard, A. G. (2010): «Learning and reproduction of gestures by imitation», en IEEE Robotics & Automation Magazine, vol. 17, n.º 2, pp. 44-54.

—Caliskan, A.; Bryson, J J. y Narayanan, A. (2017): «Semantics derived automatically from language corpora contain human-like biases», en Science, vol. 356, n.º 6.334, pp. 183-186.

—Chessell, M. y Smith, H. C. (2013): Patterns of information management, Indianapolis, Pearson Education.

—Christians, A. (2009): «Sovereignty, taxation and social contract», en Minnesota Journal of International Law, n.º 18, p. 99.

—Chung, J. S. y Zisserman, A. (2017): «Lip reading in the wild», en S. H. Lai, V. Lepetit, K. Nishino y Y. Sato (eds.), Computer Vision. ACCV 2016: 13th Asian Conference on Computer Vision, Taipei, Taiwan, November 20-24, 2016: Revised Selected Papers, Part II, Cham, Springer International Publishing, pp. 87-103.

—Claxton, G. (2015): Intelligence in the Flesh: Why Your Mind Needs Your Body Much More than It Thinks, New Haven, Yale University Press.

—Comité Internacional de la Cruz Roja (2018): Ethics and autonomous weapon systems: An ethical basis for human control?, informe técnico, Ginebra, Comité Internacional de la Cruz Roja.

—Consejo Nacional de Espacio y Tecnología, Comisión de Tecnología (2016): «Preparing for the future of artificial intelligence», informe técnico, Oficina Ejecutiva del Presidente de Estados Unidos.

—Cooke, M. (1999): «A space of one’s own: autonomy, privacy, liberty», en Philosophy & Social Criticism, vol. 25, n.º 1, pp. 22-53.

—Cowen, T. (1992): «Law as a public good: the economics of anarchy», en Economics and Philosophy, vol. 8, n.º 2 , pp. 249-267.

—(2011): The Great Stagnation: How America Ate All the Low-Hanging Fruit of Modern History, Got Sick, and Will (Eventually) Feel Better, Old Saybrook, Tantor Media.

—Crabtree, A. y Mortier, R. (2015): «Human data interaction: Historical lessons from social studies and CSCW», en N. Boulus-Rødje, G. Ellingsen, T. Bratteteig, M. Aanestad y P. Bjørn (eds.), ECSCW 2015: Proceedings of the 14th European Conference on Computer Supported Cooperative Work, 19-23 September 2015, Oslo, Norway Cham, Springer International Publishing, pp. 3-21.

—Danezis, G.; Domingo-Ferrer, J.; Hansen, M.; Hoepman, J. H.; Metayer, D. L.; Tirtea, R. y Schiffner, S. (2014): «Privacy and data protection by design-from policy to engineering», informe técnico, Heraclión, Agencia Europea de Seguridad de las Redes y de la Información.

—Deng, J.; Xu, X.; Zhang, Z.; Frühholz, S. y Schuller, B. (2017): «Universum autoencoder-based domain adaptation for speech emotion recognition», en IEEE Signal Processing Letters, vol. 24, n.º 4, pp. 500-504.

—Dennett, D. C. (2013): Intuition Pumps and Other Tools for Thinking, Nueva York, WW Norton & Company.

—(2017): From Bacteria to Bach and Back, Londres, Allen Lane.

—Devos, T. y BanajI, M. R. (2003): «Implicit self and identity», en Annals of the New York Academy of Sciences, vol. 1.001, n.º 1, pp. 177-211.

—Dolata, U. (2017): «Apple, Amazon, Google, Facebook, Microsoft: market concentration-competition-innovation strategies», en SOI Discussion Paper 2017-01, Stuttgarter Beiträge zur Organisations-und Innovationsforschung.

—Editorial (2018): «China’s Orwellian tools of high-tech repression», en The Washington Post.

—Eichhorst, W. y Marx, P. (2011): «Reforming German labour market institutions: a dual path to flexibility», en Journal of European Social Policy, vol. 21, n.º 1, pp. 73-87.

—Ensafi, R.; Winter, P.; Mueen, A. y Cryall, J. R. (2015): «Analyzing the Great Firewall of China over space and time», en Proceedings on privacy enhancing technologies, abril, pp. 61-76.

—Erickson, B. J.; Korfiatis, P.; Akkus, Z; Kline, T. y Philbrick, K. (2017): «Toolkits and libraries for deep learning», en Journal of Digital Imaging, pp. 1-6.

—Eyben, F.; Weninger, F.; Lehment, N.; Schuller, B. y Rigoll, G. (2013): «Affective video retrieval: violence detection in Hollywood movies by large-scale segmental feature extraction», en PLoS ONE, vol. 8, n.º 12, e78506.

—Ford, M. (2015): Rise of the Robots: Technology and the Threat of a Jobless Future, Londres, Oneworld.

—Frischmann, B. M. y Selinger, E. (2016): «Engineering humans with contracts», 493, en Cardozo Legal Studies Research Paper, n.º 493. Disponible en https://ssrn.com/abstract=2834011

—Gabriel, I. (2017): «Effective altruism and its critics», en Journal of Applied Philosophy, vol. 34, n.º 4, pp. 457-473.

—Gates, C. y Matthews, P. (2014): «Data is the new currency», en Proceedings of the 2014 New Security Paradigms Workshop, NSPW ’14, Nueva York, ACM, pp. 105-116.

—Gilbert, S. F.; Sapp J. y Tauber, A. I. (2012): «A symbiotic view of life: we have never been individuals», en The Quarterly Review of Biology, vol. 87, n.º 4, pp. 325-341, n.º pmi, 23397797.

—Ginsburg, T. (2005): «Locking in democracy: constitutions, commitment, and international law», en New York University journal of international law and politics, vol. 38, n.º 4, p. 707.

—Goodman, B. y Flaxman, S. (2016): «EU regulations on algorithmic decision-making and a “right to explanation”», en B. Kim, D. M. Malioutov y K. R. Varshney, (eds.), ICML Workshop on Human Interpretability in Machine Learning (WHI 2016), Nueva York, pp. 26-30.

—Grama, A. (2003): Introduction to Parallel Computing, Harlow, Pearson Education.

—Griffin, H. J.; Aung, M. S. H.; Romera-Paredes, B.; Mcloughlin, C.; Mckeown, G.; Curran, W. y Bianchi-Berthouze, N. (2013): «Laughter type recognition from whole body motion», Humaine Association Conference on Affective Computing and Intelligent Interaction (ACII), Ginebra, pp. 349-355.

—HaberL, H.; Erb, K. H.; Krausmann, F.; Gaube, V.; Bondeau, A.; Plutzar, C.; Gingrich, S.; Lucht, W. y Fischer-Kowalski, M. (2007): «Quantifying and mapping the human appropriation of net primary production in Earth’s terrestrial ecosystems», en Proceedings of the National Academy of Sciences, vol. 104, n.º 31, pp. 12.942-12.947.

—Haines, T. S. F.; Mac Aodha, O. y Brostow, G. J. (2016): «My text in your handwriting», en ACM Transactions on Graphics, vol. 35, n.º 3, art. 26, pp. 1-18.

—Hanahan, D. y Weinberg, R. (2011): «Hallmarks of cancer: the next generation», en Cell, vol. 144, n.º 5, pp. 646-674.

—Hancock, J. T.; Curry, L. E.; Goorha, S. y Woodworth, M. (2007): «On lying and being lied to: a linguistic analysis of deception in computer-mediated communication», en Discourse Processes, vol. 45, n.º 1, pp. 1-23.

—Herrmann, B.; Thöni, C. y Gächter, S. (2008): «Antisocial punishment across societies», en Science, vol. 319, n.º 5.868, pp. 1.362-1.367.

—Hofmann, M.; Geiger, J.; Bachmann, S.; Schuller, B y Rigoll, G. (2014): «The TUM gait from audio, image and depth (GAID) database: multimodal recognition of subjects and traits», en Journal of Visual Communication and Image Representation, vol. 25, n.º 1, pp. 195-206.

—Holmes, S. (1988): «Precommitment and the paradox of democracy», en Constitutionalism and democracy, n.º 195, pp. 199-221.

—Hsu, Feng-hsiung (2002): Behind Deep Blue: Building the Computer that Defeated the World Chess Champion, Princeton, Princeton University Press.

—Huang, B.; Li, M.; De Souza, R. L.; Bryson, J. J. y Billard, A. (2016): «A modular approach to learning manipulation strategies from human demonstration», en Autonomous Robots, vol. 40, n.º 5, pp. 903-927.

—Human Rights Watch (2018): «Eradicating ideological viruses: China’s campaign of repression against xinjiang’s muslims», informe técnico, Human Rights Watch.

—Hunter, L. W.; Bernhardt, A.; Hughes, K. L. y. Skuratowicz, E. (2001): «It’s not just the ATMs: technology, firm strategies, jobs, and earnings in retail banking», en Industrial &Labor Relations Review, vol. 54, n.º 2, pp. 402-424.

—ICO (2018): «Investigation into the use of data analytics in political campaigns: Investigation update», informe técnico, Reino Unido, Oficina del Comisionado de Información.

—Iyengar, S.; Sood G. y Lelkes, Y. (2012): «Affect, not ideology: social identity perspective on polarization», en Public Opinion Quarterly, vol. 76, n.º 3, p. 405.

—Jentzsch, N. (2014): «Secondary use of personal data: a welfare analysis», en European Journal of Law and Economics, pp. 1-28.

—Jia, S.; Lansdall-Welfare, T. y Cristianini, N. (2016): «Time series analysis of garment distributions via street webcam», en A. Campilho y F. Karray (eds.), Image Analysis and Recognition: 13th International Conference, ICIAR 2016, en memoria de Mohamed Kamel, Póvoa de Varzim, Portugal, del 13 al 15 de julio, Proceedings, Berlín, Springer International Publishing, Cham, pp. 765-773.

—Jordan, J. J.; Hoffman, M.; Nowak, M. A. y Ry, G. G. (2016): «Uncalculating cooperation is used to signal trustworthiness», en Proceedings of the National Academy of Sciences, vol. 113, n.º 31, pp. 8.658-8.663.

—King, G. y Zeng, L. (2001): «Improving forecasts of state failure», en World Politics, n.º 53, pp. 623-658.

—Kleinsmith, A. y Bianchi-Berthouze, N. (2013): «Affective body expression perception and recognition: a survey», en IEEE Transactions on Affective Computing, vol. 4, n.º 1, pp. 15-33.

—Krauss, L. M. y Starkman, G. D. (2000): «Life, the universe, and nothing: Life and death in an ever-expanding universe», en The Astrophysical Journal, vol. 531, n.º 1, p. 22.

—Laland, K. N.; Odling-Smee, J. y Feldman, M. W. (2000): «Niche construction, biological evolution, and cultural change», en Behavioral and Brain Sciences, vol. 23, n.º 1, pp. 131-146.

—Lamba, S. y Mace, R. (2012): «The evolution of fairness: explaining variation in bargaining behaviour», en Proceedings of the Royal Society B: Biological Sciences, vol. 280, n.º 1.750.

—Landau, J.-P. (2016): «Populism and debt: is Europe different from the U. S.?», charla en Princeton Woodrow Wilson School, en preparación.

—Lawrence, G. W.; Kehoe, W. R.; Y. Rieger, O.; Walters, W. H. y Kenney, A. R. (2000): «Risk management of digital information: a file format investigation», en Menlo College ResearchPaper 93, Washington D.C., Council on Library and Information Resources.

—Lee, D. S. (1999): «Wage inequality in the united states during the 1980s: rising dispersion or falling minimum wage?», en The Quarterly Journal of Economics, vol. 114, n.º 3, pp. 977-1.023.

—Lee, E.; Macvarish J. y Bristow, J. (2010): «Risk, health and parenting culture», en Health, Risk & Society, vol. 12, n.º 4, pp. 293-300.

—Levy, K. E. C. (2015): «Beating the box: resistance to surveillance in the United States trucking industry», capítulo de la tesis doctoral y manuscrito en preparación.

—Liao, S.-H. (2005): «Expert system methodologies and applications: a decade review from 1995 to 2004», en Expert Systems with Applications, vol. 28, n.º 1, pp. 93-103.

—List, C. y Pettit, P. (2011): Group agency: The possibility, design, and status of corporate agents, Nueva York, Oxford University Press.

—Liu, S.; Wang, X.; Liu, M. y Zhu, J. (2017): «Towards better analysis of machine learning models: a visual analytics perspective», documento ArXiv en preimpresión, n.º 1702.01226.

—Lowe, W. (2001): «Towards a theory of semantic space», en Proceedings of the Twenty-First Annual Meeting of the Cognitive Science Society, Edimburgo, Lawrence Erlbaum Associates, pp. 576-581.

—Mace, R. (1998): «The co-evolution of human fertility and wealth inheritance strategies», en Philosophical Transactions of the Royal Society of London B: Biological Sciences, vol. 353, n.º 1.367, pp. 389-397.

—Marshall, C. C.; Bly, S. y Brun-Cottan, F. (2006): «The long term fate of our digital belongings: toward a service model for personal archives», en Archiving Conference, n.º 1, pp. 25-30.

—McCarthy, J. (1983): «The little thoughts of thinking machines», en Psychology Today, vol. 17, n.º 12, pp. 46-49.

—McCarty, N. M.; Poole, K. T. y Rosenthal, H. (2016): Polarized America: the dance of ideology and unequal riches, 2.ª ed., Cambridge, MIT Press.

—Meng, X.-L. (2018): «Statistical paradises and paradoxes in big data (i): law of large populations, big data paradox, and the 2016 US presidential election», en The Annals of Applied Statistics, vol. 12, n.º 2, pp. 685-726.

—Meyer, B. (2016): «Learning to love the government: trade unions and late adoption of the minimum wage», en World Politics, vol. 68, n.º 3, pp. 538-575.

—Miguel, J. C. y Casado, M. A. (2016): «GAFAnomy (Google, Amazon, Facebook and Apple): the big four and the b-ecosystem», en M. Gómez-Uranga, J. M. Zabala-Iturriagagoitia y J. Barrutia (eds.), Dynamics of Big Internet Industry Groups and Future Trends: A View from Epigenetic Economics, Cham, Springer International Publishing, pp. 127-148.

—Milanovic, B. (2016): Global Inequality, Cambridge, Belknap Press of Harvard University Press.

—Mill, J. S. (1859): On Liberty, Londres, John W. Parker and Son.

—Miller, T. (2017): Storming The Wall: Climate Change, Migration, And Homeland Security, San Francisco, City Lights Books.

—Mishel, L. (2012): «The wedges between productivity and median compensation growth», en Issue Brief n.º 330, Washington D.C., Economic Policy Institute.

—Moeslund, T. B. y Granum, E. (2001): «A survey of computer vision-based human motion capture», en Computer Vision And Image Understanding, vol. 81, n.º 3, pp. 231-268.

—Morales, A. (2018): «Brexit has already cost the U.K. more than its E.U. budget payments, study shows», Bloomberg. Disponible en https://www.bloomberg.com/news/articles/2018-06-22/u-k-brexit-hit-already-exceeds-eu-budget-payments-study-shows

—Murphy, K. P. (2012): Machine Learning: A Probabilistic Perspective, Cambridge, MIT Press.

—Newman, E. J.; Sanson, M.; Miller, E. K.; Quigley-Mcbride, A.; Foster, J. L.; Bernstein, D. M. y Garry, M. (2014): «People with easier to pronounce names promote truthiness of claims», en PLoS ONE, vol. 9, n.º 2, e88671.

—Ngai, E. W. T.; Hu, Y.; Wong, H.; Chen, Y. y Sun, X. (2011): «The application of data mining techniques in financial fraud detection: a classification framework and an academic review of literatura», en Decision Support Systems, vol. 50, n.º 3, pp. 559-569.

—Oficina Ejecutiva del Presidente de Estados Unidos (2016): Artificial Intelligence, Automation, And The Economy, Washington D.C., diciembre.

—O’Reilly, T. (2017): WTF? What’s the Future and why It’s Up to Us, Nueva York, Random House.

—Pasquale, F. (2015): The Black Box Society: The Secret Algorithms That Control Money And Information, Cambridge, Harvard University Press.

—Person, R. (2018): «Gray zone tactics as asymmetric balancing», ponencia presentada en la reunion annual de la American Political Science Association.

—Perzanowski, A. y Schultz, J. (2016): The End of Ownership: Personal Property in the Digital Economy, Cambridge, MIT Press.

—Pinker, S. (2012): The Better Angels of our Nature: The Decline of Violence in History and Its Causes, Londres, Penguin.

—Price, G. R. (1972): «Fisher’s ‘fundamental theorem’ made clear», en Annals of Human Genetics, vol. 36, n.º 2, pp. 129-140.

—Reed, S.; Akata, Z.; Yan, X.; Logeswaran, L.; Schiele, B. y Lee, H. (2016): «Generative adversarial text to image synthesis», en Proceedings of The 33rd International Conference on Machine Learning, ICML, vol. 3.

—Roithmayr, D.; Isakov, A. y Ry, D. (2015): «Should law keep pace with society? Relative update rates determine the co-evolution of institutional punishment and citizen contributions to public godos», en Games, vol. 6, n.º 2, p. 124.

—Romanes, G. J. (1883): Animal intelligence, Nueva York, D. Appleton.

—Rosner, G. (2014): «Who owns your data?», en Proceedings of the 2014 ACM International Joint Conference on Pervasive and Ubiquitous Computing: Adjunct Publication, UbiComp ’14 Adjunct, Nueva York, ACM, pp. 623-628.

—Roughgarden, J.; Oishi, M. y Akçay, E. (2006): «Reproductive social behavior: Cooperative games to replace sexual selection», en Science, vol. 311, n.º 5.763, pp. 965-969.

—Russell, S. J. y Norvig, P. (2009): Artificial Intelligence: A Modern Approach, 3.ª ed., Englewood Cliffs, Prentice Hall.

—Santoni de Sio, F. y Van den Hoven, J. (2018): «Meaningful human control over autonomous systems: a philosophical account», en Frontiers in Robotics and AI, n.º 5, p. 15.

—Sartori, G.; Orru, G. y Monaro, M. (2016): «Detecting deception through kinematic analysis of hand movement», en International Journal of Psychophysiology, n.º 108, p. 16.

—ScheideL, W. (2017): The Great Leveler: Violence and the History of Inequality from the Stone Age to the Twenty-First Century, Princeton, Princeton University Press.

—Schena, M.; Shalon, D.; Heller, R.; Chai, A.; Brown, P. O. y Davis, R. W. (1996): «Parallel human genome analysis: microarray-based expression monitoring of 1000 genes», en Proceedings of the National Academy of Sciences, vol. 93, n.º 20, pp. 10.614-10.619.

—Schlager, K. J. (1956): «Systems engineering: key to modern development», en IRE Transactions on Engineering Management, n.º 3, pp. 64-66.

—Schmitt, J. (2013): «Why does the minimum wage have no discernible effect on employment», en Technical Report 22, Washington D.C., Center for Economic and Policy Research.

—Schuller, B.; Steidl, S.; Batliner, A.; Hirschberg, J.; Burgoon, J. K.; Baird, A.; Elkins, A.; Zhang, Y.; Coutinho, E. y Evanini, K. (2016): «The interspeech 2016 computational paralinguistics challenge: deception, sincerity & native Language», en Interspeech 2016, pp. 2.001-2.006.

—Selinger, E. y Hartzog, W. (2017): «Obscurity and privacy», en J. Pitt y A. Shew (eds.), Spaces for the Future: A Companion to Philosophy of Technology, Nueva York, Routledge, en prensa.

—Silver, D.; Huang, A.; Maddison, C. J.; Guez, A.; Sifre, L.; Schrittwieser, J.; Antonoglou, I.; Panneershelvam, V.; Lanctot, M. et al. (2016): «Mastering the game of go with deep neural networks and tree search», en Nature, vol. 529, n.º 7.587, pp. 484-489.

—Singer, P. (2015): The Most Good You Can Do: How Effective Altruism Is Changing Ideas About Living Ethically, Melbourne, Text Publishing.

—Singh, J.; Pasquier, T.; Bacon, J.; Ko, H. y Eyers, D. (2016): «Twenty security considerations for cloud-supported Internet of Things», en IEEE Internet of Things Journal, vol. 3, n.º 3, pp. 269-284.

—Sipser, M. (2005): Introduction to the Theory of Computation, 2.ª ed., Boston, Thompson.

—Smith, B. (2018): «Facial recognition technology: the need for public regulation and corporate responsibility», blog Microsoft on the Issues. Disponible en https://blogs.microsoft.com/on-the-issues/2018/07/13/facial-recognition-technology-the-need-for-public-regulation-and-corporate-responsibility/

—Soares, N. y Fallenstein, B. (2014): «Agent foundations for aligning machine intelligence with human interests: A technical research agenda», pendiente de publicación. Disponible en https://intelligence.org/files/TechnicalAgenda.pdf

—Solaiman, S. M. (2016): «Legal personality of robots, corporations, idols and chimpanzees: a quest for legitimacy», en Artificial Intelligence and Law, pp. 1-25.

—Stewart, A. J.; Mccarty, N. y Bryson, J. J. (2018): «Explaining parochialism: a causal account for political polarization in changing economic environments», documento ArXiv en preimpresión n.º 1807.11477.

—Stoddart, D. M. (1990): The Scented Ape: The Biology and Culture of Human Odour, Cambridge, Cambridge University Press.

—Suwajanakorn, S.; Seitz, S. M. y Kemelmacher-Shlizerman, I. (2017): «Synthesizing Obama: Learning lip sync from audio», en ACM Transactions on Graphics, vol. 36, n.º 4, p. 95.

—Sylwester, K.; Mitchell, J.; Lowe, W. y Bryson, J. J. (2017): Punishment as aggression: Uses and consequences of costly punishment across populations, en preparación.

—Tepperman, J. (2016): The Fix: How Countries Use Crises to Solve the World’s Worst Problems, Nueva York, Tim Duggan Books.

The Economist (2017): «I, taxpayer: Why taxing robots is not a good idea. Bill Gates’s proposal is revealing about the challenge automation poses», edición impresa, 25 de febrero de 2017, archivo de la autora.

—Thies, J.; Zollhofer, M.; Stamminger, M.; Theobalt, C. y Nießner, M. (2016): «Face2Face: real-time face capture and reenactment of RGB videos», en Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, pp. 2.387-2.395.

—Touretzky, D. S. (1988): «On the proper treatment of thermostats», en Behavioral and Brain Sciences, vol. 11, n.º 1, p. 5.556.

—Trewavas, A. (2005): «Green plants as intelligent organisms», en Trends In Plant Science, vol. 10, n.º 9, pp. 413-419.

—Valentino, B. A. (2004): Final Solutions: Mass Killing And Genocide In The 20th Century, Ithaca, NY, Cornell University Press.

—Valstar, M. F. y Pantic, M. (2012): «Fully automatic recognition of the temporal phases of facial actions», en IEEE Transactions on Systems, Man, and Cybernetics, Part B (Cybernetics), vol. 42, n.º 1, pp. 28-43.

—Van Lange, P. A. M.; De Bruin, E.; Otten, W. y Joireman, J. A. (1997): «Development of prosocial, individualistic, and competitive orientations: theory and preliminary evidence», en Journal of Personality and Social Psychology, vol. 73, n.º 4, pp. 733-746.

—Van Schaik, C.; Graber, S.; Schuppli; C. y Burkart, J. (2017): «The ecology of social learning in animals and its link with intelligence», en The Spanish Journal of Psychology, n.º 19.

—Vincent, J. (2016): «Artificial intelligence is going to make it easier than ever to fake images and video», The Verge. Disponible en https://www.theverge.com/2016/12/20/14022958/ai-image-manipulation-creation-fakes-audio-video

—Weber, R. H. (2010): «Internet of Things: New security and privacy challenges», en Computer Law & Security Review, vol. 26, n.º 1, pp. 23-30.

—Widrow, B.; Rumelhart, D. E. y Lehr, A. A. (1994): «Neural networks: Applications in industry, business and science», en Communications of the ACM, vol. 37, n.º 3, pp. 93-105.

—Williams, C. P. (2010): Explorations in quantum computing, Londres, Springer Science & Business Media.

—Winston, P. H. (1984): Artificial Intelligence, Boston, Addison-Wesley. [Ed. esp. (1994): Inteligencia Artificial, Buenos Aires, Addison-Wesley Iberoamericana.]

—Wolpert, D. H. (1996a): «The existence of a priori distinctions between learning algorithms», en Neural Computation, vol. 8, n.º 7, pp. 1.391-1.420.

—Wolpert, D. H. (1996b): «The lack of a priori distinctions between learning algorithms», en Neural Computation, vol. 8, n.º 7, pp. 1.341-1.390.

—Wright, G. (1974): «The political economy of new deal spending: An econometric analysis», en The Review of Economics and Statistics, vol. 56, n.º 1, pp. 30-38.

—Wu, Y.; Schuster, M.; Chen, Z.; Le, Q. V.; Norouzi, M.; Macherey, W.; Krikun, M.; Cao, Y.; Gao, Q.; Macherey, K.; Klingner, J.; Shah, A. et al. (2016): «Google’s neural machine translation system: bridging the gap between human and machine translation», en Computing Research Repository (CoRR), abs, n.º 1609.08144.

—Yan, X. (2006): «The rise of China and its power status», en The Chinese Journal of International Politics, vol. 1, n.º 1, pp. 5-33.

—Yiu, E. (2016): «Alibaba tops Tencent as Asia’s biggest company by market value: new-economy companies that owe their revenue to technology and the internet are now more valuable than oil refineries, manufacturers and banks», en South China Morning Post, 5 de noviembre.

—Youyou, W.; Kosinski ,M. y Stillwell, D. (2015): «Computer-based personality judgments are more accurate than those made by humans», en Proceedings of the National Academy of Sciences, vol. 112, n.º 4, pp. 1.036-1.040.


EXTRAIDO OPENMIND BBVA

Comentarios