• Debemos aplicar la lección del libre mercado a la inteligencia artificial
• Intentar crear IA perfectas implica el peor pensamiento al estilo soviético
• Deberíamos alentar a las IA a reflejar nuestros propios prejuicios
La parte más divertida del debate actual sobre la inteligencia artificial es la manera en que estamos recapitulando dos de los grandes errores del siglo XX: el delirio del cálculo socialista y lo que podríamos llamar el delirio del nuevo hombre soviético.
Un ejemplo de la falacia del cálculo socialista nos lo ofrece Ali Rahimi , quien sostiene que las IA se construyen mediante alquimia y no mediante la ciencia. En esta versión de los hechos, las máquinas son meros trabajos improvisados que procesan una gran cantidad de datos para ver qué encaja. Como dice, “me gustaría vivir en una sociedad cuyos sistemas se construyan sobre la base de un conocimiento verificable, riguroso y exhaustivo, y no sobre la base de la alquimia”.
Esto suena bastante razonable en algunos contextos; después de todo, siempre he preferido que mis plantas nucleares las construyan quienes saben lo que hacen. Sin embargo, es una crítica menos destacada cuando se trata de sociedades y economías: como señalaron Hayek y Mises, algunas cosas son demasiado complejas para que podamos comprenderlas de una manera tan completa.
De hecho, en toda una economía desarrollada utilizamos chapuzas para procesar datos sin comprender bien los procesos detallados que se llevan a cabo. No sabemos cuántas manzanas se comerán el año que viene, así que dejamos que los procesos del mercado se encarguen de ello. Como insistió Hayek, estos son los únicos motores informáticos que tenemos capaces de procesar los datos para producir información útil.
También vemos este mismo problema en varios editoriales bien intencionados. La IA va a cambiar el mundo, no sabemos cómo, por lo tanto, ¡debemos planificar! ¡Dirigir! ¡Canalizar esas fuerzas! Pero si no sabemos cómo una tecnología va a cambiar el mundo, la planificación simplemente no es posible.
Como bien pregunta el Guardian , ¿quién podría haber sabido que el cambio del aceite de ballena al queroseno en el siglo XIX conduciría en última instancia al desarrollo de los plásticos? ¿Y qué plan iniciado en 1880 nos habría dado un mundo con o sin plásticos? Nadie, claramente, porque nadie conocía siquiera esa posibilidad. Lo mismo es cierto cuando tratamos de calcular los efectos que tendrá la IA en las próximas décadas: en ambos casos, la ignorancia total no es una buena base para elaborar un plan.
El otro error es lo que yo llamaría el problema del nuevo hombre soviético. Describe la idea de que, si bien las alegrías del socialismo no eran del agrado de los seres humanos reales, el gobierno soviético acabaría creando un tipo de ser humano totalmente nuevo que lo adoraría. Por supuesto, el homo sovieticus nunca llegó a materializarse.
Esto nos lleva a otro argumento común sobre la IA: que no debería incorporar lo que sabemos sobre los seres humanos reales.
Por ejemplo, sabemos que muchos seres humanos son racistas, misóginos, codiciosos y cortoplacistas. La IA también puede detectar esas debilidades y, sin duda, puede mostrar lo que llamaríamos prejuicios.
Insistir en que no lo hacen es pasar por alto por completo el punto central. El único uso posible de las IA es brindarnos conocimiento sobre el mundo en el que vivimos, conocimiento que no podemos derivar puramente de la lógica, sino que solo se puede obtener mediante el procesamiento de datos.
Al fin y al cabo, el mundo está lleno de seres humanos profundamente prejuiciosos. Una IA que no tuviera en cuenta esos aspectos tendría poco valor para describir nuestro mundo. Por eso no solo deberíamos desear que las IA incorporen nuestros errores, sino que debemos insistir absolutamente en que lo hagan.
El error del Nuevo Hombre Soviético sería intentar diseñar IA para un mundo libre de humanos con todo su comportamiento desordenado e ilógico. También es, por supuesto, un argumento contra las diversas alternativas al capitalismo de libre mercado. Claro, si los humanos no respondieran a los incentivos, entonces una igualdad de resultados impuesta rígidamente podría funcionar perfectamente. En el mundo real, los incentivos son importantes y cualquier sistema que no permita un grado de desigualdad que surja de la aplicación o el esfuerzo no va a funcionar. El error de la IA es sutilmente diferente, pero se basa en el mismo error subyacente.
Todo esto significa que podemos entrenar a las IA con datos y ver qué sucede, en lugar de intentar comprender las interacciones complejas, algo que de todos modos no podemos hacer. Si el siglo pasado nos ha enseñado algo, es a evitar esos dos errores clave: intentar planificar sistemas complejos y suponer que el mundo estará libre de nosotros, los humanos, y de todos nuestros hábitos desordenados. Los pioneros de la IA harían bien en tener en cuenta esas lecciones.
(*) Economista. Es escritor y bloguero. Es un colaborador habitual de CapX.También ha escrito para The Guardian, The New York Times, PandoDaily, Forbes, The Register, The Daily Telegraph, The Times y The Wall Street Journal.
Actualmente es miembro senior en el Instituto Adam Smith y trabaja en el Continental Telegraph.
Estudió en la London School of Economics. Trabajó en la Unión Soviética y se convirtió en comerciante de elementos raros como el escandio y el circonio.