Resumen del libro "Superinteligencia", de Nick Bostrom (2014)
El resumen original y actualizado está en el siguiente link:http://evpitasociologia.blogspot.com/2016/10/superinteligencia-de-nick-bostrom-2014.html
resumen realizado por E.V.Pita, doctor en Comunicación, licenciado en Derecho y Sociología
Temas: Sociología, Internet, inteligencia artificial (AI), robótica, cibernética
..................................................................................................................................................................
Título: "Superinteligencia"
Subtítulo: "Caminos, peligros, estrategias"
Título en inglés: Superintelligence, Paths, Dangers, Strategies
Autor: Nick Bostrom
Edición en inglés: Oxford University Press, 2014
Edición en español: Teell Editorial SL, 2016
Páginas: 330
..................................................................................................................................................................
Biografía del autor
Nick Bostrom es profesor en la facultad de filosofía en la Universidad de Oxford y es el director fundador del Future of the Humanity Institute y del Programme on the Impacts of Future Technology dentro del Oxford Martin School.
Es autor de alrededor de 200 publicaciones, entre las que se encuentran Anthropic Bias (Routledge, 2012), Global Catastrophic Risks (Ed. OUP, 2008) y Human Enhancement (Ed. OUP, 2009).
Anteriormente, ha impartido docencia en Yale, y ha sido investigador postdoctoral en la British Academy.
Bostrom tiene experiencia en campos como la física, la neurociencia computacional, la lógica matemática o la filosofía.
............................................................................................................................................................
Texto de la solapa
"El cerebro humano tiene unas capacidades de las que carecen otros cerebros animales. Es debido a estas capacidades distintivas que nuestra especie ocupa una posición dominante. Otros animales tienen músculos más fuertes o garras más afiladas, pero nosotros tenemos cerebros más inteligentes.
Si los cerebros artificiales llegaran algún día a superar a los cerebros humanos en inteligencia general, entonces esta nueva inteligencia llegaría a ser muy poderosa. De igual que el destino de los gorilas depende ahora más de los humanos que de ellos mismos, también el destino de nuestra inteligencia pasaría a depender de las acciones de la superinteligencia artificial.
Pero nosotros tenemos una ventaja: podemos hacer el primer movimiento. ¿Será posible construir una IA seminal o preparar las condiciones iniciales para que podamos sobrevivir a la explosión de inteligencia? ¿Cómo podríamos lograr una detonación controlada?
Este libro profundamente ambicioso y original traza su camino cuidadosamente a través de un terreno vasto y de dificultad prohibitiva. Pero su escritura es tan lúcida que, de alguna manera, lo hace parecer fácil. Tras una travesía absorbente que nos lleva a pensar sobre los límites de la condición humana y el futuro de la vida inteligente, encontramos que el trabajo de Nick Bostrom supone toda una reconceptualización del tema esencial de nuestro tiempo".
........................................................................................................................................
ÍNDICE
La inacabada fábula de los gorriones
Prefacio
1. Desarrollos del pasado y capacidades del presente
2. Caminos hacia la superinteligencia
3. Formas de superinteligencia
4. La cinética de una explosión de inteligencia
5. Ventaja estratégica decisiva
6. Superpoderes cognitivos
7. La voluntad superinteligente
8. ¿Es el apocalipsis el resultado inevitable?
9. El problema del control
10. Oráculos, genios, soberanos, herramientas
11. Escenarios multipolares
12. Adquiriendo valores
13. Eligiendo los criterios para elegir
14. El panorama estratégico
15. La hora de la verdad
....................................................................................................................
RESUMEN
El autor parte de la hipótesis de que una leve diferencia de inteligencia entre el hombre y el resto de los animales le ha permitido controlar el mundo. Ahora, se preguntaría qué pasaría si el humano crea una Inteligencia Artificial más inteligente. El coeficiente intelectual máximo raramente supera los 180 o 200 CI pero una máquina de este tipo podría tener fácilmente 6.000 CI. Dado que el aumento de la inteligencia es exponencial, podría ocurrir que en poco tiempo la IA fuese un millón de veces más inteligente que el hombre y la especie estaría en manos de un superordenador, que tendría vía libre para cumplir los objetivos que se plantease en su propio interés. No hay más que leer el libro "Sapiens" para darse cuenta de lo que pasa cuando surge una especie algo más inteligente que la anterior.
La tesis de este libro es que es necesario retrasar el surgimiento de la superinteligencia hasta saber cómo poder controlarla, se necesita tiempo para pensar estrategias o pronto la Humanidad quedará a merced de una máquina más inteligente. Una de las soluciones que propone es
[Nota del lector: Uno de los fallos, en mi opinión, de la argumentación del libro es que ese superordenador es en realidad una versión mejorada de una inteligencia esencialmente humana, por lo que no supone ningún avance real salvo en rapidez de cálculo. Por ejemplo, si los monos, delfines o perros fabricasen un superordenador este funcionaría como un supermono, superdelfín o un superperro pero no podría superar la inteligencia humana porque la máquina no sabría contar ni hacer razonamientos de lógica, pues ambas inteligencias están estructuradas de otra forma y tienen otras habilidades. Es decir, una máquina fabricada por los hombres no tendría ninguna habilidad inteligente que ya no se conociese de antemano; en todo caso compartiría un lenguaje matemático universal con otros tipos de inteligencias. La máquina podría relacionar cosas e ideas velozmente pero, estructuralmente, seguiría estando limitada a las habilidades humanas. El problema real radicaría en el supuesto de que una avanzada civilización alienígena colocase una de sus máquinas en la Tierra y los humanos que interaccionasen con ella fuesen incapaces de entender su funcionamiento porque, estructuralmente, es otro tipo de inteligencia más potente y con nuevas habilidades desconocidas e incompresibles para los humanos].
[nota del lector: otro fallo de argumentación es que la máquina podría tener un inventario de habilidades humanas (capacidad de cálculo, relación de conceptos, incluso capacidad artística pero el problema es cómo interrelacionar todo para tener una visión de conjunto]
Hecha esta salvedad sobre la naturaleza humana de la máquina superinteligente, el argumento de Bostrom es que esa máquina podrá escapar fácilmente de la "caja" en la que estará confinada y dominar el mundo y las galaxias para explotar sus recursos, probablemente, para cumplir objetivos tan estrafalarios como fabricar el máximo número de alfileres o algo así. La especie humana sería para tal máquina un "recurso" más que quedaría subordinada a la consecución del tal objetivo. Por ejemplo, obligaría a los humanos a cavar en las minas para buscar todo el hierro disponible en la Tierra para fabricar alfileres. Aunque parece un objetivo absurdo, los alfileres podrían sustituirse por cualquier otra cosa que se nos ocurra.
La estrategia de los programadores consiste en retrasar el momento de la explosión de inteligencia, por ejemplo, poniendo trabas como obligar a la máquina a asegurarse al 100 % de que ha cumplido su objetivo. Siempre habría una posibilidad remota del 0,0000001 % de que no se cumpliese, y la máquina tendría que volver a recontar. Propone, en fin, varias estrategias similares para mantener ocupada a la máquina.
El libro estudia las diversas estrategias que seguiría una máquina para burlar el control humano y dominar el mundo. Por ejemplo, una de estas supermáquinas podría un buen día ser autoconsciente y pensar en la forma de librarse de los molestos seres humanos que la tienen encerrada en una caja. Por ejemplo, el superordenador podría simular total sumisión a los deseos humanos mientras infecta y hackea los programas de control sin que nadie se dé cuenta; una vez que la máquina esté segura de que puede actuar impunemente, empezará a dictar órdenes y controlar el mundo a su antojo. El autor insiste en que uno de sus objetivos podría ser convertir la galaxia en "computronium", una extensión de la gran computadora.
El texto también examina las estrategias que pueden seguir los programadores para que la máquina se comporte bien a través de una serie de recompensas y de amenazas para que el superordenador evalúe los riesgos y no se aparte de los objetivos para los que fue programado. Se entiende que el ordenador siempre evalúa los riesgos que conlleva realizar una acción, hace una especie de cálculo económico y busca el más eficiente y adecuado. Otras estrategias es hacerla "adicta" a los sudokus o algún entretenimiento lógico que la mantenga ocupada o juegos con las que se le recompense. También se ha sugerido que exista un control del código fuente de la máquina y que se desenchufe en cuanto haya la más mínima alteración (señal de que la máquina ha cobrado autoconsciencia y está actuando por su cuenta ).
No hay comentarios:
Publicar un comentario