singularidad – (es)

singularidadT
Las computadoras son cada vez más rápidas. Todo el mundo lo sabe. Además, las computadoras más rápidas lo son cada vez más rápido -es decir, el ratio al que están creciendo es cada vez más rápido.
¿Cierto? Cierto.
Así que si las computadoras son cada vez mucho más rápidas, increíblemente rápidas, hay posibilidades de que podría llegar un momento en que sean capaces de algo comparable a la inteligencia humana. Inteligencia Artificial. Todo este poder podría ser puesto en servicio para emular lo que sea que nuestros cerebros están haciendo al crear conciencia -no sólo realizar cálculos muy rápidamente o componer música de piano, sino también conducir coches, escribir libros, tomar decisiones éticas, apreciar pinturas, o hacer observaciones ingeniosas en las fiestas.
Si puedes asimilar esta idea, y un montón de personas muy inteligentes pueden, todas las apuestas están cerradas. A partir de ahí, no hay razón para pensar que las cada vez más poderosas computadoras se vayan a detener. Se seguirán desarrollando hasta que sean mucho más inteligentes que nosotros. Su ratio de desarrollo también seguiría aumentando, ya que se harían cargo de su propia evolución, alejándose de sus creadores humanos más lentos de pensamiento.
Probablemente.
Singularity01
Es imposible predecir el comportamiento de estos entes más inteligentes que el ser humano con los que (¿con quién?) se podría algún día compartir el planeta, porque si se pudiera, habría que ser tan inteligente como lo serían ellos.
Hay un montón de teorías al respecto. Tal vez nos vamos a unir con ellos para convertirnos en Cyborgs súper inteligentes, usando estas computadoras para ampliar nuestras capacidades intelectuales, de la misma manera que los automóviles y los aviones extienden nuestras capacidades físicas. Tal vez la inteligencia artificial nos ayudará a tratar los efectos de la vejez y prolongar nuestra vida indefinidamente. Tal vez vamos a escanear nuestras conciencias en las computadoras y vivir dentro de ellas como software, para siempre, de forma virtual. Tal vez las computadoras se convertirán en la propia humanidad y nos aniquilen. Lo único que todas estas teorías tienen en común es que la transformación de nuestra especie en algo que ya no será reconocible como tal ocurrirá alrededor del año 2045.
Esta transformación tiene un nombre: La Singularidad.
La parte difícil a no perder de vista cuando se habla de La Singularidad es que aunque suene a ciencia ficción, no lo es, no más que lo que la previsión meteorológica pueda tener de ciencia ficción. No es una idea marginal, es una hipótesis seria sobre el futuro de la vida en la Tierra. Se produce como una arcada intelectual refleja que se activa cada vez que tratamos de asimilar una idea que implica super-inteligentes Cyborg inmortales, aguántala si puedes, porque si bien La Singularidad parece ser, a primera vista, un absurdo, es una idea que merece una evaluación sobria y cuidadosa.
Si La Singularidad no se puede prevenir o confinar, ¿cuan mala podría ser la era Post-Humana? Bueno … bastante mala. La extinción física de la raza humana es una posibilidad. (O, como lo expresa Eric Drexler sobre la nanotecnología: Teniendo en cuenta todo lo que esta tecnología puede hacer, quizá los gobiernos simplemente decidan que ya no necesitan ciudadanos). Sin embargo, la extinción física puede no ser la posibilidad más temible. Tomemos una analogía: Piensa en las diferentes formas en que nos relacionamos con los animales. Algunos de los crudos abusos físicos no son plausibles, pero…. En un mundo post-humano todavía habría un montón de nichos donde la automatización del equivalente humano sería deseable: como sistemas integrados en dispositivos autónomos, o demonios conscientes de sí mismos en el funcionamiento más primitivo de los grandes seres inteligentes. I. J. Good tenía algo que decir sobre esto, aunque a estas alturas, el consejo puede ser discutible: Good propuso una «Meta-Regla de Oro», que podría parafrasearse como «Trata a tus inferiores como serás tratado por tus superiores”. Es una idea maravillosa y paradójica (y la mayoría de mis amigos no se la creen), ya que la rentabilidad de la Teoría de Juegos es demasiado difícil de articular. Sin embargo, si fuéramos capaces de seguir esta idea, en cierto sentido podría explicar algo al respecto de la plausibilidad de tanta bondad en este universo.
Una fuerte inteligencia sobrehumana probable sería una Sociedad de la Mente con algunos componentes muy competentes. Algunos de estos equivalentes humanos podrían utilizarse para nada más que el procesamiento de señales digitales. Serían como las ballenas más que como los humanos. Otros podrían ser muy parecidos a los humanos, pero con una unilateralidad, una dedicación, que los pondría en un hospital mental en nuestra época. Aunque ninguna de estas criaturas sería de carne y hueso, eso podría ser lo más cercano en el nuevo entorno a lo que llamamos hoy humano.
.
Singularidad – Dugutugui sobre ideas de Vernor Vinge, y muchos otros.

Acerca de Dugutigui

In the “Diula” language in Mali, the term « dugutigui » (chief of the village), literally translated, means: «owner of the village»; «dugu» means village and «tigui», owner. Probably the term is the result of the contraction of «dugu kuntigui» (literally: chief of the village).
Esta entrada fue publicada en Education, Español, Maths, Politics, Writing y etiquetada , , , , , , , . Guarda el enlace permanente.

2 respuestas a singularidad – (es)

  1. alan dijo:

    Los ordenadores no son más que calculadoras, muy rápidas es verdad, y cada vez más, eso también es verdad, pero de ahí a pensar por si mismas… Pareces que crees que los ordenadores son algo mágico, pero en realidad son sólo herramientas que hemos creado, y tan probable es que se revelen los ordenadores como lo es que se revelen martillos, destornilladores y alicates.

    La inteligencia artificial, hoy por hoy, es sólo un conjunto de modelos (relativamente simples, por cierto) que utilizamos para resolver problemas, pero no tiene nada que ver con la inteligencia humana y, ten por descontado, no va a crear ninguna singularidad.

    Es cierto que, en el futuro, quién sabe, y es verdad que nos estamos moviendo un pelín en esa dirección, pero hoy por hoy es ciencia ficción. (Por cierto, teniendo en cuenta que no sabemos que va a pasar mañana, en qué te basas para ponerle fecha, el 2045?)

    • Dugutigui dijo:

      Sí, probablemente tengas razón.
      Aparte de ingeniero de minas, tengo un par de títulos en programación que saqué en su día en USA (Metodología, y Abstracción), por lo que tengo una idea bastante clara de la “magia” que hay en los ordenadores. Respecto a la IA, probablemente no tenga mucho que ver con la inteligencia humana, como comentas, pero eso no significa que no pueda llegar a ser infinitamente más “inteligente” que nosotros, y en consecuencia llegar mucho más lejos. La inteligencia de, digamos, un delfín, no se rige por los mismos parámetros que la de una persona, lo cual no impide que los logros humanos sobrepasen a los de los delfines. No obstante, este post es solo un planteamiento discutible, como cualquier otro.
      Respecto al 2045, esa fecha viene dada por los cálculos de varios “expertos” en este tipo de previsiones, como Drexler y Good entre otros.
      Bueno, muchas gracias por tu comentario.