Tecnología y comunicación han estado muy unidas desde el origen de la humanidad. Según Michio Kaku, uno de los divulgadores científicos más conocidos del mundo y catedrático en la Universidad de Nueva York, estamos entrando en la cuarta ola tecnológica.
El MCP abre convocatoria de Monitoreo Estratégico y apoyo técnico
Comunicación y tecnología ¿deberían existir límites?
1. Comunicación y tecnología
¿deberían existir límites?
Abril 16, 2018 - 13:07
Escrito por Opinión prnoticias Publicado en PRComunicación
Comunicación y tecnología ¿deberían existir límites? Por @juanapulido, Directora en
@EstComunicacion
Juana Pulido, directora en
Estudio de Comunicación
Juana Pulido, Directora
en Estudio de
Comunicación
@juanapulido
Tecnología y
comunicación han estado
muy unidas desde el
origen de la humanidad.
Según Michio Kaku, uno
de los divulgadores
científicos más conocidos del mundo y catedrático en la Universidad de Nueva York,
estamos entrando en la cuarta ola tecnológica.
En la primera ola, en el siglo XIX, vimos nacer la potencia de vapor, lo que condujo a
locomotoras y otros equipos industriales. En la segunda ola, la electricidad y los
automóviles. En la tercera ola, la alta tecnología, que comenzó a mediados del siglo XX,
con la aparición del transistor, los láseres, Internet, los satélites. Y en la cuarta ola, que se
producirá durante los próximos 20 años, veremos un futuro muy diferente: la realidad
virtual, la realidad aumentada, la inteligencia artificial. La posibilidad de conectarnos a
internet a través de lentes de contacto que nos dará acceso total al universo que nos rodea
sin necesidad de un ordenador, Tablet o Smartphone.
Pero, ¿qué es la Inteligencia Artificial?, ¿a qué nos enfrentamos?
La inteligencia artificial es, según la más común de las definiciones, la simulación de
procesos de inteligencia humana por parte de máquinas, especialmente sistemas
informáticos. Estos procesos incluyen el aprendizaje (entendido como la adquisición de
información y reglas para el uso de la información), el razonamiento (usando las reglas
para llegar a conclusiones aproximadas o definitivas) y la autocorrección.
Pero, esto no es nuevo, el concepto de Inteligencia Artificial, se le debe al informático
estadounidense John McCarthy, quien en 1956 lo acuñó por primera vez en una
conferencia. Pero medio siglo después, aun no hay ordenadores que imiten el
pensamiento humano. Hasta la fecha, los científicos que se dedican a este tema no han
podido crear una verdadera inteligencia artificial de tipo general, sino que han optado por
inteligencias artificiales especializadas.
2. Esto es debido a que los equipos existentes hoy en día no son lo suficientemente potentes,
con el volumen de cálculo necesario para llevar a cabo todas las tareas de las que puede
constar la inteligencia artificial general. Se espera que esto pueda ser solucionado gracias
a la computación cuántica.
De hecho el propio McCarthy en 1978 ya se temía esto, y dijo que para crear una
verdadera Inteligencia Artificial se necesitaría el trabajo de "1,7 Einsteins, 2 Maxwells, 5
Faradays y la financiación de 0,3 Proyectos Manhattan, siempre y cuando ese proyecto
viniera después de los necesarios descubrimientos conceptuales".
La visión sobre el futuro de la Inteligencia Artificial no es unánime. Algunos ven en la
Inteligencia Artificial el futuro de la humanidad, otros la sienten como una gran amenaza.
Stephen Hawking afirmó que la Inteligencia Artificial acabará con la humanidad. Según
Hawking, aún no se ha investigado lo suficiente sobre esto y “podría ser el peor error en la
historia descartar la amenaza de la inteligencia artificial”. “Los logros en la inteligencia
artificial de hoy, palidecen en comparación con la tecnología que se introducirá en el
futuro. El éxito en la creación de la Inteligencia Artificial será “el evento más grande en la
historia de la humanidad”, afirma Hawking.
Muchos otros sostienen posturas similares. Elon Musk, CEO de Tesla, dice que "la
Inteligencia artificial es uno de esos raros casos en los que es necesaria una regulación
proactiva en vez de reactiva. Es uno de los mayores peligros a los que nos enfrentaremos
como civilización".
Quizás lo sucedido en uno de los programas desarrollados por Facebook dé una idea de a
qué nos podemos enfrentar. La división de Facebook de desarrollo de inteligencia artificial
(Facebook Artificial Intelligence Researchers) creó un sistema para ver cómo era capaz de
interactuar en negociaciones. Los resultados de las pruebas del sistema mostraron que los
«bots» estaban conversando en un lenguaje extraño y aparentemente erróneo. Sin
embargo, no se trataba de un error, ya que el sistema había creado su propio idioma. Los
dos «bots», llamados Bob y Alice, usaban palabras aleatorias y sin sentido, por ello los
investigadores pensaron en un primer momento que el sistema de Inteligencia Artificial
estaba sufriendo un fallo. Sin embargo, tras un análisis se percataron que en esas
palabras había un patrón, por lo que los «bots» habían creado su propio lenguaje porque
habían considerado que era mucho más directo y practico que el inglés. Ante la dificultad
de la comunicación entre el sistema y el ser humano, Facebook decidió “apagar” el
sistema antes de perder por completo el control.
Lo sucedido entraba dentro de lo probable. De hecho otras muchas entidades tecnológicas
se plantean cuestiones similares. Apple, IBM, Microsoft o Google, ya se han organizado
para el desarrollo sostenible y sin peligros de esta tecnología en Partnership on AI.
La tecnología ha sido la gran alidada de los principales avances de la humanidad y con
seguridad lo será en el futuro, pero parece recomendable avanzar con ciertas garantías,
también en su aplicación a la comunicación.
Modificado por última vez: Lunes, 16 Abril 2018 13:14
https://prnoticias.com/comunicacion/prcomunicacion/20168101‐comunicacion‐tecnologia‐
limites