La singularidad tecnológica es un
acontecimiento futuro en el que se
predice que el progreso tecnológico y el
cambio social se acelerarán debido al
desarrollo de inteligencia sobrehumana
cambiando nuestro entorno de manera
tal, que cualquier ser humano anterior a la
Singularidad sería incapaz de
comprender o predecir.
DEFINICIÓN
La singularidad propone un escenario que
parece de ciencia ficción, pero a la
velocidad que vemos avanzar la ciencia y la
computación, un mundo controlado por
máquinas no termina por sonar del todo
descabellado.
Según el científico y escritor de
ciencia ficción Vernor Vinge, la
singularidad se puede alcanzar por
diferentes caminos:
CAMINO HACIA LA SINGULARIDAD
CAMINO HACIA LA SINGULARIDAD
1. El desarrollo de un computador que
alcance el nivel de inteligencia humana y
posteriormente lo supere
(superinteligencia artificial).
2. El desarrollo de redes de
computadoras que se comporten
como superneuronas de un cerebro
distribuido que "despierte" como
ente inteligente (superinteligencia
colectiva).
CAMINO HACIA LA SINGULARIDAD
3. El desarrollo de elementos de
interacción con computadoras que
permitan a un humano comportarse
como un ser superinteligente
(superinteligencia híbrida).
CAMINO HACIA LA SINGULARIDAD
4. Manipulaciones biológicas que
permitan mejorar en algunos seres el
nivel humano de inteligencia
(superinteligencia biológica)
CAMINO HACIA LA SINGULARIDAD
El gran maestro de la ciencia ficción, Isaac
Asimov, para muchos un profeta de los
tiempos que vivimos, postuló en 1942 dentro
de su cuento Run around las Tres Leyes de
la Robótica, normas ideadas por el escritor
a las que los robot tendrían que ceñirse
para que los humanos nos mantuviésemos
a salvo
TRES LEYES DE LA ROBÓTICA
1. Un robot no debe dañar a un ser humano o,
por su inacción, dejar que un ser humano
sufra daño.
2. Un robot debe obedecer las órdenes que le
son dadas por un ser humano, excepto si
estas órdenes entran en conflicto con la
Primera Ley.
3. Un robot debe proteger su propia existencia,
hasta donde esta protección no entre en
conflicto con la Primera o la Segunda Ley.
TRES LEYES DE LA ROBÓTICA
La singularidad tecnológica es una hipótesis
que sugiere que la velocidad tan acelerada
a la que progresa la tecnología provocará
que la inteligencia artificial tarde o temprano
exceda la capacidad intelectual de los
humanos y por ende el control que tenemos
sobre ella. Esto cambiará para siempre la
civilización o terminará con ella.
Una idea increíblemente interesante y
bastante aterradora a su vez. La singularidad,
si lo pensamos bien, es el tema en películas
como Matrix o Terminator, que plantean un
escenario en el que la civilización ha llegado
a un estado en el que las máquinas han
sobrepasado la inteligencia humana y han
tomado el control.
Postulada por Gordon Moore en 1965, esta
ley empírica ha logrado anticipar el patrón
de comportamiento de los
microprocesadores, indicando que cada 18
meses aproximadamente, el número de
transistores en un circuito integrado se
duplica, y su coste se reduce. La Ley de
Moore ha venido cumpliéndose por más de
medio siglo, y de continuar haciéndolo, el
progreso tecnológico sería ¿infinito?
LEY DE MOORE
Si la Ley de Moore se sigue cumpliendo y la
inteligencia artificial alcanza un punto en el
que los robots empiecen a crear nuevos y
mejores robots, más inteligentes, ¿por que
no olvidarse de cualquier variante de las
leyes de Asimov que los humanos hayan
podido implantar en su programación?
Después de todo serían máquinas creando
máquinas, y la humanidad podría
convertirse en una especie obsoleta que no
merece ser conservada.
Los defensores de la singularidad son
conscientes de las amenazas que esta
implica y consideran los siguientes riesgos
existenciales:
 Inteligencia artificial mal programada.
 Mal uso de la nanotecnología.
 Mala utilización de la biotecnología.
RIESGOS
• Uso generalizado de las prótesis
(convirtiéndose en un robot).
• Tecnologías autónomas que se
escapan de las manos (máquinas que
se auto construyen a si mismas).
RIESGOS
Aunque todas estas posibilidades sean
probablemente imposibles de comprender y
mucho menos de predecir, muchos ya se han
atrevido a decir que dentro de 20 o 30 años
alcanzaremos un nivel de superinteligencia que
permitirá que la singularidad suceda en algún
momento. Y aunque todo parezca sacado de
un libro de ciencia ficción, si miramos con
detenimiento el mundo en el que estamos
viviendo, nos damos cuenta de que no todo
son coincidencias divertidas, y que hay mucho
basado en la realidad.
CONCLUSIÓN
SINGULARIDAD
FUTURO
CAMBIO SOCIAL
FICCIÓN
COMPUTACIÓN
MAQUINAS
SUPERNEURONAS
ISAAC ASIMOV
GORDON MOORE
MICROPROCESADOR
PROGRESO
ROBOTS
NANOTECNOLOGÍA
BIOTECNOLOGÍA
TECNOLOGÍA AUTÓMATA
Singularidad tecnológica

Singularidad tecnológica

  • 2.
    La singularidad tecnológicaes un acontecimiento futuro en el que se predice que el progreso tecnológico y el cambio social se acelerarán debido al desarrollo de inteligencia sobrehumana cambiando nuestro entorno de manera tal, que cualquier ser humano anterior a la Singularidad sería incapaz de comprender o predecir. DEFINICIÓN
  • 3.
    La singularidad proponeun escenario que parece de ciencia ficción, pero a la velocidad que vemos avanzar la ciencia y la computación, un mundo controlado por máquinas no termina por sonar del todo descabellado.
  • 4.
    Según el científicoy escritor de ciencia ficción Vernor Vinge, la singularidad se puede alcanzar por diferentes caminos: CAMINO HACIA LA SINGULARIDAD
  • 5.
    CAMINO HACIA LASINGULARIDAD 1. El desarrollo de un computador que alcance el nivel de inteligencia humana y posteriormente lo supere (superinteligencia artificial).
  • 6.
    2. El desarrollode redes de computadoras que se comporten como superneuronas de un cerebro distribuido que "despierte" como ente inteligente (superinteligencia colectiva). CAMINO HACIA LA SINGULARIDAD
  • 7.
    3. El desarrollode elementos de interacción con computadoras que permitan a un humano comportarse como un ser superinteligente (superinteligencia híbrida). CAMINO HACIA LA SINGULARIDAD
  • 8.
    4. Manipulaciones biológicasque permitan mejorar en algunos seres el nivel humano de inteligencia (superinteligencia biológica) CAMINO HACIA LA SINGULARIDAD
  • 9.
    El gran maestrode la ciencia ficción, Isaac Asimov, para muchos un profeta de los tiempos que vivimos, postuló en 1942 dentro de su cuento Run around las Tres Leyes de la Robótica, normas ideadas por el escritor a las que los robot tendrían que ceñirse para que los humanos nos mantuviésemos a salvo TRES LEYES DE LA ROBÓTICA
  • 10.
    1. Un robotno debe dañar a un ser humano o, por su inacción, dejar que un ser humano sufra daño. 2. Un robot debe obedecer las órdenes que le son dadas por un ser humano, excepto si estas órdenes entran en conflicto con la Primera Ley. 3. Un robot debe proteger su propia existencia, hasta donde esta protección no entre en conflicto con la Primera o la Segunda Ley. TRES LEYES DE LA ROBÓTICA
  • 11.
    La singularidad tecnológicaes una hipótesis que sugiere que la velocidad tan acelerada a la que progresa la tecnología provocará que la inteligencia artificial tarde o temprano exceda la capacidad intelectual de los humanos y por ende el control que tenemos sobre ella. Esto cambiará para siempre la civilización o terminará con ella.
  • 12.
    Una idea increíblementeinteresante y bastante aterradora a su vez. La singularidad, si lo pensamos bien, es el tema en películas como Matrix o Terminator, que plantean un escenario en el que la civilización ha llegado a un estado en el que las máquinas han sobrepasado la inteligencia humana y han tomado el control.
  • 13.
    Postulada por GordonMoore en 1965, esta ley empírica ha logrado anticipar el patrón de comportamiento de los microprocesadores, indicando que cada 18 meses aproximadamente, el número de transistores en un circuito integrado se duplica, y su coste se reduce. La Ley de Moore ha venido cumpliéndose por más de medio siglo, y de continuar haciéndolo, el progreso tecnológico sería ¿infinito? LEY DE MOORE
  • 14.
    Si la Leyde Moore se sigue cumpliendo y la inteligencia artificial alcanza un punto en el que los robots empiecen a crear nuevos y mejores robots, más inteligentes, ¿por que no olvidarse de cualquier variante de las leyes de Asimov que los humanos hayan podido implantar en su programación? Después de todo serían máquinas creando máquinas, y la humanidad podría convertirse en una especie obsoleta que no merece ser conservada.
  • 15.
    Los defensores dela singularidad son conscientes de las amenazas que esta implica y consideran los siguientes riesgos existenciales:  Inteligencia artificial mal programada.  Mal uso de la nanotecnología.  Mala utilización de la biotecnología. RIESGOS
  • 16.
    • Uso generalizadode las prótesis (convirtiéndose en un robot). • Tecnologías autónomas que se escapan de las manos (máquinas que se auto construyen a si mismas). RIESGOS
  • 17.
    Aunque todas estasposibilidades sean probablemente imposibles de comprender y mucho menos de predecir, muchos ya se han atrevido a decir que dentro de 20 o 30 años alcanzaremos un nivel de superinteligencia que permitirá que la singularidad suceda en algún momento. Y aunque todo parezca sacado de un libro de ciencia ficción, si miramos con detenimiento el mundo en el que estamos viviendo, nos damos cuenta de que no todo son coincidencias divertidas, y que hay mucho basado en la realidad. CONCLUSIÓN
  • 18.
    SINGULARIDAD FUTURO CAMBIO SOCIAL FICCIÓN COMPUTACIÓN MAQUINAS SUPERNEURONAS ISAAC ASIMOV GORDONMOORE MICROPROCESADOR PROGRESO ROBOTS NANOTECNOLOGÍA BIOTECNOLOGÍA TECNOLOGÍA AUTÓMATA