Número 4 Año 2017
Revista Investigación y Ciencia
Primera Edición
Número 4 Año 2017
DERECHOS RESERVADOS © 2017
Depósito Legal: 4-3-46-16
e-mail:willy.portugal@gmail.com
revistainvestigacionyciencia.blogspot.com
Impresión Propia
La Paz - Bolivia
Director y/o responsable:
M. Sc. Portugal Durán Willy Ernesto
e-mail:willy.portugal@gmail.com
Editora y/o responsable:
M. Sc. Rios Miranda Bhylenia Yhasmyna
e-mail:bhylenia.rios@gmail.com
Revisión y Edición:
Aduviri Loayza Carla Lopez Davalos Nelson Luis
ApazaVillca Sergio Juan Loza López Luis Beltrán
Arteaga Gutierrez Diego Alejandro Mamani Sosa Jorge Luis
Aruquipa Chavez Job Israel Martinez Mamani Reyna Rebeca
Callizaya Perez Maria Jose Martinez Quispe Elvis
Cansay Choque Nelson Daniel Quispe Chambi Cristhian Manuel
Carrion Choque Nelson Enrique Quispe Matta Nora Lizeth
Choque Callizaya Gabriel Alejandro Ramos Jimenez Brayan Ronald
Choque Condori Luis Cesar Ramos Mamani Wara Victoria
Choque Cruz Ivan Alcides Ramos Ruiz Roger Gabriel
Chuquimia Condori Luis Rodrigo Ramos Suntura Javier Oliver
Condori Quispe Miguel Angel Salcedo Perez Edwin Diego
Cruz Quino Samuel Benjamin Santander Silva Lucero Belen
Fernandez Macias Fernando Velasques Laura Franz Lider
Hidalgo Quispe Vladimir Wilson Villanueva Chuquimia Kevin Gary
Limachi Guillen Marcos Josue Zamora Mita Lizeth
Limachi Tapia Guillermo
Diagramación: Diseño de la tapa:
Condori Chavez Eynar Mamani Apaza Luis Grover
Agradecimientos
Se agradece la participación y aporte de todos los
estudiantes que participaron en la revista con sus artículos
de investigación, revisión, edición, impresión, diseño y
diagramación para que esta cuarta revista sea publicada.
Prólogo
La Revista “Investigación y Ciencia” es una publicación editada y publicada por
los docentes y estudiantes del primer semestre de la carrera de Informática de la
materia de “Gramática Española”, en la cual participaron todos los paralelos de
la materia y está dirigida a todas las personas que realizan investigaciones.
El principal objetivo de la revista es incentivar a los estudiantes a que realicen
investigación y posteriormente realicen una redacción de una investigación
científica en forma de artículo aplicando normas APA y de esta manera sea una
base para la realización de su vida académica en cada estudiante.
La revista presenta una gama de artículos de investigación escrito por los
estudiantes y cuyo interés está en función a los objetivos de la carrera dentro de
las áreas que tiene la Ciencias de la Computación.
El desafío que plantea la materia a los estudiantes es escribir un artículo científico
inédito aplicando normas internacionales y reglas gramaticales, después del
proceso de revisión, eliminación y clasificación lograr publicar su artículo en
la revista de escrita y/o digital para poder llegar a mayores lectores nacionales
o internacionales y de tal manera alimentar el conocimiento científico de la
sociedad y más que todo a nuestra universidad.
Las palabras que llegan hasta nosotros a través de los diferentes escritos contienen
un pozo de sabiduría acumulada y constituyen la mejor parte de nuestra gran
experiencia cultural. Esto ocurre cuando el ser humano busca la provisión del
lenguaje para tener un aprendizaje de las palabras abandonamos la naturaleza e
ingresamos en el universo de la cultura.
Portugal Durán Willy Ernesto
Rios Miranda Bhylenia Yhasmyna
CONTENIDO
ALGORITMO EVOLUTIVO PARA EL JUEGO CUATRO EN RAYA (pp. 1-6)
Portugal Durán Willy Ernesto, Rios Miranda Bhylenia Yhasmyna
RESUMEN: 						
Los algoritmos genéticos y la computación evolutiva han sido aplicados a los juegos de estrategia en cual fueron
totalmente implementados como se observa en el presente artículo con el juego cuatro en raya.
ALGORITMOS TIPO HASH (MD5-SHA512) (pp. 7-12)
Villavicencio Jhonny, Condori Ali Pierre, Cruz Quino Benjamin
RESUMEN:
En la actualidad existe dos métodos de encriptación más usados es el MD5 (Message-Digest Algorithm
5, Algoritmo de Resumen del Mensaje 5) y el algoritmo SHA-1 (Secure Hash Algorithm, Algoritmo
de  Hash  Seguro), MD5 perdió la confiabilidad de los usuarios debido a que resulto no ser tan segura en
sustitución de esta se aplicó el SHA-1, el cual contribuye más confiablidad a la información pública, privada
de los usuarios.
ANDROID OREO VERSIÓN 8.0 (pp. 13-18)
Quino Terán Obed, Quispe Paco Marcos, Suxo Gandarillas Wilmer Rodrigo
RESUMEN:
La última versión deAndroid presentada oficialmente por los desarrolladores de Google el 21 de agosto de 2017
llamada Oreo debido a las famosas galletas Oreo tiene interesantes novedades las cuales tenemos entendido
que son 27 en total, en el presente artículo presentaremos las características que nos parezca principales o
más interesantes, estas novedades no las podemos criticar todavía su desempeño en los diferentes dispositivos
más conocidos ya que las actualizaciones tardaran un poco en llegar, depende de los fabricantes de cada
compañía, entonces por esa razón también presentaremos mediante una tabla los dispositivos confirmados para
la actualización a la última versión.
APLICACION DE IMÁGENES 2D, 3D Y HOLOGRAMAS EN CAMPOS DEL
CONOCIMIENTO (pp. 19-24)
Alvaro L. Muruchi, Edison Clavijo, Leandro Góngora
RESUMEN:
La Computación Gráfica nace con SAGE, en 1955 la cual es una máquina que se creó durante la Guerra Fría
por el ejército de los Estados Unidos para rastrear a las naves aéreas. Hoy es una rama de la ciencia de la
computación, que estudia al conjunto de técnicas que nos permiten la representación de los objetos mediante el
uso de computadoras y a su vez herramientas o aplicaciones que se relacionan con el campo de la geometría,
la térmica, la óptica, etc. La computación gráfica también comprende una gran variedad de técnicas que
pueden ser agrupadas de acuerdo al número de dimensiones que se utilizan en la representación del modelo
grafico a visualizar, ya que este puede ser en 2D, 3D y también un Holograma. Las imágenes bidimensionales
y tridimensionales ayudan a proporcionar escenas vivas y naturales como si los ambientes de la simulación
realmente existieran, haciéndose herramientas valiosas para muchas aplicaciones como la visualización médica,
investigación científica, entretenimiento, arquitectura, anuncios publicitarios, computación tridimensional,
sistemas de realidad virtual, área industrial y militar entre otros.
BIOIMPRESIÓN 3D: LO QUE HAY Y LO QUE VENDRÁ (pp. 25-30)
Choque Callizaya Gabriel Alejandro, Javieri Vino Douglas Cristhian, Villegas Yujra Pablo
RESUMEN:
La inteligencia artificial ha sido creada para diseñar maquinas inteligentes, chips artificiales que son el cerebro
de la máquina, el que logra que piense y hablen por si solos, La tecnología hoy en día tiene que estar más atenta
en las innovaciones que el ser humano logra y más en el campo de la medicina, un equipo experto liderados
por Anthony Átala lograron imprimir órganos humanos gracias a la impresora 3D, sin duda es una innovación
tecnológica que esta revolucionado el mundo entero. El implante de órganos y prótesis avanzadas hoy puede
ser más fácil de conseguirlas gracias las impresiones humanas, algo que podría cambiar el mundo y sin duda
cambiar las vidas de muchas personas, un gran aporte al mundo de la tecnología y de la medicina.
COMPUTADORAS CUÁNTICAS UNA PROMESA DE LA TECNOLOGÍA
INFORMÁTICA (pp. 31-34)
Condori Chávez Eynar, Martínez Quispe Elvis, Choque Condori Luis
RESUMEN:
Las computadoras cuánticas prometen revolucionar la tecnología informática, empleando la mecánica cuántica
para procesar y resolver problemas millones de veces más rápido que los dispositivos actuales.
Una misma tarea puede tener diferente complejidad, en computación clásica y en computación cuántica, ya que
problemas intratables pasan a ser tratables, mientras que una computadora clásica equivale a una máquina de
Turing.
DESENCRIPTACION DE CANALES SATELITALES (pp. 35-40)
Apaza Villca Sergio Juan, Choque Ticona Caleb, Villalobos Quispe Henry Jordan
RESUMEN:
La liberación de canales por medio de IKS es una forma de ver canales de televisión satelitales, esto sin
representar ningún costo por adquirir este servicio, es decir este servicio es de forma gratuita, ya que como se
mencionó que el servicio es gratuito el único costo que se debe realizar es el de adquirir los equipos necesarios
para realizar este fin, la liberación de estos canales se pueden obtener por diferentes medios como ser el sistema
SKS, siendo este método el menos utilizado ya sea por empresas que brindan este servicio o por un usuario
aficionado al mundo de las telecomunicaciones, siendo un método antiguo por el hecho de que necesitaría
hardware adicional sin mencionar que este método a día de hoy no resulta ser tan eficaz. Siendo el sistema
IKS como algún tipo de llave electrónica que nos permite la liberación de canales satelitales, a diferencia del
sistema SKS este a día de hoy sigue siendo un sistema eficaz y estable, esto dependiendo de los desarrolladores
de los Decodificadores en caso de optar por tener “Cable pirata” ya que las grandes empresas que se encargan
de brindar este servicio son más estables ya que no corren el riesgo de cerrar sus servidores que generan las
llaves electrónicas, siendo estas por medio de tarjetas. Es por esto que para un usuario sin ningún conocimiento
sobre este mundo y desea optar por este método de liberación de canales solo necesita de su parte contar con
una conexión a Internet, indispensablemente debe ser por medio del WiFi, siendo el WiFi el único medio con
que se puede acceder a este método.
DISEÑO DE CIRCUITOS LÓGICOS COMBINATORIOS MEDIANTE
ALGORITMOS GENÉTICOS (pp. 41-46)
Copa Mita Luis Fernando, Furuya Valdivia Grace
RESUMEN:
El comportamiento de los circuitos combinacionales sólo depende de las señales de entrada en un instante
determinado, y no de la secuencia de entradas, es decir, de la historia del circuito. Este hecho no quiere decir que
el comportamiento temporal no sea importante, de hecho una de las principales características de los circuitos
que se tienen en cuenta es la velocidad de operación o el retraso de propagación, todos los métodos nos ayudan
a simplificar los circuitos y la complejidad de estos utilizando mapas de Karnaught también usando el método
Quine-McCluskey para la solución de estos.
Además Java surge por la necesidad de contar con un lenguaje de programación que fuera independiente de la
plataforma, permitiendo generar software para diversos dispositivos electrónicos. La Word Wide Web hace que
java se convierta en el lenguaje de programación más importante para el desarrollo de software para la internet,
ya que la web demanda programas portables.
EL DESPLAZAMIENTO DE LA CAPACIDAD DE PENSAMIENTO HUMANO (pp.
47-51)
Escobar Mamani Jason Maximiliano, Mamani Ticona Yecid Israel, Quispe Matta Nora Lizeth
RESUMEN:
Lo que en un tiempo pasado se creía ciencia ficción hoy es una realidad, la idea de una inteligencia artificial
capaz de imitar el comportamiento neurológico de un ser humano; es necesario notar que al igual que la historia
evolutiva de las computadoras, la inteligencia artificial, así como en otras ramas de la tecnología, en la actualidad
también ha logrado un gran avance al punto de una realidad que ya se imaginaba como ficción.
Si bien en un tiempo pasado se tenía la visión de realizar grandes avances tecnológicos con el fin de ayudar en
al desarrollo humano, se vio como necesidad la idea de reducir el tiempo de razonamiento del ser humano lo
que se creía que sería un gran avance para mejorar el aprendizaje del ser humano hoy en día quizá resulte ser
como un arma de doble filo, capaz de beneficiar o perjudicar en el desarrollo cerebral cognitivo del ser humano.
ELECTRÓNICA, DISEÑO, DESARROLLO, Y FABRICACIÓN DE DISPOSITIVOS
PORTABLES EN LA TECNOLOGÍA WEARABLE (pp. 52-55)
Limachi Tapia Guillermo, Mamani Sosa Jorge Luis, Claros Choquemisa Cesar Raymundo
RESUMEN:
El término “Wearable” es una palabra de significado literal “Portable o Ponible”. La mayor referencia es
hacia el conjunto de aparatos y dispositivos electrónicos que se incorporan en alguna parte de nuestro cuerpo
interactuando de forma continua con el usuario y con otros dispositivos con la finalidad de realizar alguna
función concreta Así la tecnología Wearable es integrante de la rama de la electrónica que está diseñada para
ser vestida, bien puede ser llevada en una prenda de vestir o en un dispositivo aleatorio con un propósito
y funcionalidad diferente de los objetos que siempre están a nuestro entorno. El desarrollo Wearable es
directamente dedicada a la electrónica de consumo, es aquel dispositivo electrónico que se lleva sobre, debajo
o incluido en la ropa relacionado con “El Sistema de Internet de las Cosas”, que se refiere a la interconexión
digital de objetos cotidianos relacionados con internet, el termino de internet de las cosas se considera una
parte de una red de objetos tangibles relacionados con la electrónica, software, sensores y la conectividad que
permite la comunicación entre otros dispositivos con el usuario sin la intervención humana. La característica
más importante de la Tecnología Wearable es su aplicación en tiempo real, y la capacidad de conectividad
inalámbrica, en los diferentes dispositivos los cuales nos permiten ingresar diferentes tipos de información que
serán almacenados en la memoria local, lo cual hará de cada dispositivo único para el portador.
EL MUNDO DE LAS REDES DE COMPUTADORAS: CARACTERISTICAS Y
TIPOLOGÍA DE RED (pp. 56-62)
Larico Quisbert Cristhian Alejandro, Meneces Zelaya David Josue
RESUMEN:
Uno de los mayores avances dentro de la ciencia de la computación son las redes computacionales. Las redes de
computadora, también llamada red de ordenadores o red informática, es un conjunto de equipos u ordenadores
interconectados atreves de un enlace físico (alambrado) o inalámbrico (señales, ondas o cualquier otro método
de trasporte de datos), la cual nos permite por sus características el compartir información tales como archivos,
recursos y otros, también nos permite entablar comunicación con otros usuarios.
EL OJO DE HALCON Y EL SISTEMA VAR EN FUTBOL (pp. 63-68)
Luis David Ajhuacho Tarquino, Vladimir Wilson Hidalgo Quispe, Jorge Luis Cori Sirpa
RESUMEN:
El ojo de halcón (Hawk-Eye) está compuesto por una red de cámaras de alta resolución situadas en diversos
puntos del estadio que siguen la trayectoria del balón en todo momento, todos los datos que va recogiendo el
sistema son analizados desde una base de datos que envía una señal al reloj inteligente del árbitro cuando el
balón ha sobrepasado la línea de gol. La señal tarda aproximadamente un segundo en enviarse al árbitro. El
sistema VAR en una asistencia por video donde el arbitro verifica si el balón en cuyo caso pasara la línea y
marcara si fuera gol o si estuviera fuera del área correspondiente es una pequeña ayuda para facilitar el trabajo
y volver el futbol mas transparente si goles fantasmaso fuera d líneas q no correspondan hay acciones en contra
de un juego limpio y sin polémica.
HACKEO: UN ARMA DE DOBLE FILO (pp. 69-73)
Arteaga Gutierrez Diego Alejandro
RESUMEN:
Como criaturas racionables, los humanos siempre hemos buscado facilitar nuestro trabajo a través del tiempo.
Lo que nos ha llevado, de crear la rueda, a los grandes avances tecnológicos de hoy. Gracias al fácil acceso al
internet junto con esa comodidad que tenemos, podemos llegar a colgar información en la red que no siempre
está protegida contra otros individuos .Los cuales pueden usar nuestra información personal a su antojo sin
nuestro consentimiento. Saber cómo evitar ser víctima de un hacker es algo que nos podría ayudar a evitar
eventos bastante desagradables.
INTELIGENCIA ARTIFICIAL, ¿CÓMO AFECTARÁ EN NUESTRAS VIDAS? (pp.
74-79)
Cruz Choque Ivan Limbert, Murguía Cazón Alvaro Marcelo, Veizaga Blanco Cristhian Freddy
RESUMEN:
El avance de la inteligencia artificial dio pie a una nueva era y a la creación de nuevos productos capaces de
imitar el comportamiento humano nos muestra un futuro en el cual podríamos automatizar por completo las
actividades hechas por humanos. La inteligencia artificial en la última década y los grandes avances de esta han
tenido un impacto masivo en la forma de realizar nuestras actividades diarias, ya sea en diferentes aplicaciones
de reconocimiento de voz, reconocimiento facial, en el motor de búsqueda de google, y es fundamental en
dispositivos electrónicos actuales o en programas como la navegación por GPS y videojuegos. La inteligencia
artificial, aunque en ocasiones no nos percatamos, hace posible todo esto, sin embargo es innegable que esto
afectó a nuestros hábitos y la manera en la que manejamos distintas tareas pero ¿Qué podemos esperar de esta
en un futuro no muy lejano?.
INTELIGENCIAARTIFICIAL EN LOS VIDEOJUEGOS (pp. 80-84)
Aguilar Catari Jorge Pablo, Carrion Choque Nelson
RESUMEN:
La inteligencia artificial o IA es uno de los puntos más importantes a la hora de estudiar y criticar un videojuego
y mientras que hay unos grandes avances en los últimos años parece que se ha llegado a un tope y la inteligencia
de nuestros aliados y enemigos virtuales se ha estancado. Ya que tenemos las mismas inteligencias artificial
casi sin modificaciones. ¿Qué depara el futuro? La inteligencia artificial es un campo de la informática
cuyos avances son cada día más rápidos y profundos. ¿Cómo se podría aplicar esta apasionante tecnología al
desarrollo de videojuegos? La respuesta a este interrogante aún nos queda bastante lejos, pero, usando un poco
la imaginación, podremos hacernos una idea de cómo será el futuro. Una idea quizá irreal y fantasiosa, pero,
definitivamente, muy interesante y sugerente.
INTELIGENCIAARTIFICIAL EN LOS VIDEOJUEGOS DE ESTRATEGIA (pp. 85-
90)
Elías Quispe Álvaro Edson, Loza López Luis Beltrán, Medrano Kantuta Christian Daniel
RESUMEN:
El papel de la Inteligencia Artificial en los videojuegos nos hace referencia a las técnicas utilizadas en distintas
computadoras y videojuegos para producir la ilusión de inteligencia en el comportamiento de los personajes
que no jugadores (PNJ).
En los últimos años los videojuegos evolucionaron notablemente y con ello las compañías de videojuegos que
poco apostaron por incluir la inteligencia artificial en sus juegos.
Por ello en este artículo presentaremos la historia de la inteligencia artificial en los videojuegos de estrategia y
finalmente mostraremos Videojuegos que han realizado un trabajo notable en este aspecto, así como el porvenir
de la inteligencia artificial en este sector.
INTERACCION HUMANO-COMPUTADORA (IHC) (pp. 91-96)
Luis Fernando Bautista Mollo, Daniel Velarde Quispe
RESUMEN:
El presente trabajo tiene por finalidad mostrar la visión del ser humano con la computadora, de qué manera se
formó una interacción entre ambas, la actualización de la computadora ha llevado al ser humano a crear nuevas
perspectivas de importancia para una mejor interacción con las máquinas, ya pasó casi un siglo de interacción
humano-computadora y no se ha podido conjeturar un concepto valido.
Actualmente la mayoría de los sistemas de información utilizan las interfaces graficas conocidas ampliamente
como interfaces graficas de usuario las cuales se basan en el manejo de imágenes y objetos gráficos como
iconos, ventanas y menús. Sin embargo, existen aplicaciones que requieren el desarrollo elaborado de interfaces
que permitan que las tareas del usuario puedan llevarse a cabo con éxito.
LAS REDES SOCIALES, EL MAL USO DE LA INFORMACIÓN Y SUS
CONSECUENCIAS (pp. 97-102)
Aramayo Aranibar Daniela Andrea, Rios Acuña Ivan Rodrigo, Roca Cruz Ronaldo Renzo
RESUMEN:
En la actualidad las redes sociales llegaron a ser una parte importante en la vida de las personas ya que nos
permite mantenernos comunicados con cualquier persona.
Una herramienta como esta solo se creería que trae cosas buenas. Sin embargo, por muy buena que esta parezca,
la moneda tiene otra cara ya que, unas cuantas personas no le dan el uso adecuado a esta tal útil herramienta, nadie
puede estar excluido ya que sean parientes o conocidos todos conocen a alguien que usa mal esta herramienta.
Entre las principales desventajas que tienen son: el gran tiempo que consumen, al ser casi anónimo traería varias
clases de abusos malintencionados, aparte de dañar la gramática.
Pero para poder determinar las desventajas de las redes sociales antes hay que entender bien puntualmente lo
que esta significa
El concepto de red Social hace referencia a una estructura o forma de interacción social que involucra a un
conjunto de personas relacionadas por alguna similitud.
En lo siguiente de este artículo se mostrará de manera más específica algunas de las formas en las cuales se llega
al mal uso de las redes sociales, creando así una desventaja de las mismas.
LA ROBÓTICA REVOLUCIONANDO AL MUNDO O LA HUMANIDAD
REVOLUCIONANDO AL MUNDO (pp. 103-108)
Alarcon Aruquipa Andony Renan, Condori Quispe Miguel Angel
RESUMEN:
Con el pasar de los años la ciencia que estudia la robótica ha ido evolucionando junto a la humanidad, la
historia relata que desde tiempos que no creeríamos los robots han sido una idea no impulsada, en la era
contemporánea debido a la revolución industrial, nos dimos cuenta que era necesario una ayuda extra a la mano
humana, debido a este pensamiento la automatización de tareas del hombre la robótica y sus funciones se han
desarrollado a niveles increíbles, a esta ciencia se le suman sus ventajas y desventajas que dan que pensar a
nuestras generaciones, ya que no solamente está en juego nuestro futuro si no el de nuestros sucesores.
LA ROBOTICA UNAALTERNATIVAA LAS LIMITACIONES HUMANAS (pp. 109-
113)
Gutierrez Condori Ruben Severo, Jira Ramos Jasmanny, Osco Gutierrez Ronald Charli
RESUMEN:
En el artículo se presenta el análisis de la implementación de la robótica en diferentes ámbitos como ser para
la educación la salud para esto se realiza la construcción de robots para diferentes ámbitos como mencionamos
anteriormente y el otro ámbito seria la utilización de la robótica como un medio que motiva y da un poco
más de sentido a la investigación y construcción de robots en diferentes áreas, en el campo de la medicina
podemos mencionar que trata con más detalle la prótesis que usan las personas cuando perdieron alguna parte
de su cuerpo que sea reemplazable, en todo este tiempo se ha proporcionado al ser humano extremidades
completamente enteras que cada día la ciencia se va perfeccionando ya que la ciencia nunca se detendrá y en el
área de la educación en el de fomentar a los niños el interés por la ciencia es por eso que se mostrara los detalles
fabulosos que nos da la ciencia y lo grandioso que puede ser la investigación.
MECÁNICA COMPUTACIONAL EN LA MEDICINA VETERINARIA (pp. 114-119)
Pomacosi Quispe Richard, Rojas Medina Eddy Dorian, Huaranca Antiñapa Juan Carlos
RESUMEN:
La mecánica computacional intenta de predecir la mecánica de los seres vivos, por lo tanto nos ayuda a entender
el motor de los organismos, caracterizar el comportamiento de los tejidos y órganos y prevenir de esta manera
métodos para la intervención artificial, por medio de la simulación computacional que modela los procesos de
respuesta de las células tejidos y órganos ante estímulos externos e internos, mediante un modelo matemático
del comportamiento que se basa en reglas o patrones que se siguen, muchas veces basadas en la metodología
de prueba y error. En el presente trabajo se lleva a cabo una revisión bibliográfica sobre esta nueva área de
conocimiento en la teoría biológica y computacional, para la predicción del comportamiento de los tejidos
vivos.
MÉTODOS DE ENCRIPTACIÓN PARA REDES PRIVADAS VIRTUALES (pp. 120-
125)
Casas Ninachoque José Eduardo, Laura Mamani Juan Guillermo, Ramirez Castro Sergio Daniel
RESUMEN:
La conexión remota a la red corporativa se ha convertido en una necesidad para las empresas de hoy en día.
El aumento del teletrabajo o los desplazamientos de personal, obligan a establecer sistemas de conexión con
la red corporativa para, de esa manera, poder acceder a sus recursos. Uno de los sistemas más extendidos para
comunicarse de forma remota con una red es a través de conexiones VPN. Sin embargo, una conexión VPN es
también un punto crítico de entrada de todo tipo de ataque. A través de una VPN cualquier tipo de ataque puede
entrar directamente en los servidores de la empresa. El problema se trata en verificar la seguridad del equipo que
se está conectando de forma remota y las políticas de seguridad adecuadas para que la información no quede
expuesta a posibles ataques y para esto la implementación de métodos de encriptación es esencial.
SEGURIDAD INFORMÁTICA EN ENTIDADES FINANCIERAS (pp. 126-134)
Santander Silva Lucero Belén, Bonilla Aruquipa Saúl Yerko, Quisbert Mújica Albert Jhonatan,
RESUMEN:
En este artículo se presenta el problema de la inseguridad informática en entidades financieras, frente a la
vulnerabilidad de la información financiera y de los usuarios ante las diferentes técnicas de hacking que se
conocen y otras que aún no se conocen.
Se menciona los conceptos de entidades financieras, de hacking y las diferentes técnicas de hacking, sus
definiciones y como poder evitar que estos puedan vulnerar nuestra información. También se toma en cuenta
los riesgos y análisis de estos riesgos desde la probabilidad que dicha amenaza ocurra. Como también se hará
conocer como poder evitar los ataques por hacking.
SISTEMAS OPERATIVOS, EL SOFTWARE BASE DE LA COMPUTADORA (pp.
135-140)
Salcedo Ayala Luis Rubén, Enríquez Donaire Carlos Alejandro, Apaza Quiroz Oscar
RESUMEN:
El sistema operativo es un software con el cual llega a funcionar en gran medida un ordenador, siendo este el
que se encarga respecto al gestionamiento , organización y administración de todos los recursos y elementos
del ordenador, en el cual se relacionan los elementos físicos (Hardware) junto con los elementos simbólicos o
no tangibles.
Estos programas principales derivan su inicio desde varias décadas atrás, iniciando alrededor de los años
sesenta, a partir de este tiempo los sistemas operativos fueros desarrollando de maneras continua y adaptándose
más con respecto a las creaciones y apariciones de nuevos elementos en el área de informática, relacionándose
con los mismos y ampliando la calidad, las opciones, características, etc. Que llega a ofrecer el ordenador dentro
de su época.
Con el pasar de los años han llega a existir toda una variedad de opciones respecto al sistema operativo en estos
destacando a gran medida, Windows por el lado de los ordenadores personales y Android, siendo este conocido
en los aparatos móviles; además de estos dos, también existen una variabilidad de estos software según su
época y además de lo conocidos que estos llega a ser.
USO DE DEEP LEARNING EN GOOGLE PARA EL DESARROLLO DE LA
INTELIGENCIAARTIFICIAL (pp. 141-146)
López Dávalos Nelson Luis, Quispe Mendoza Rodrigo Ariel, Ramos Mamani Wara Victoria
RESUMEN:
El desarrollo del Deep Learning es un gran salto en el campo de la Inteligencia artificial debido a que a partir una
base de ejemplos intentan definir nuevos conceptos y crean modelos para aprender nuevas representaciones. El
avance de la tecnología se ha ido mostrando muy sorprendente, excepto algunos sucesos inesperados; el avance
tecnológico que fueron desarrollando, el cual podría significar un gran avance para la humanidad o tal vez
podría no llegar a ser lo que muchos esperaban.
1
ALGORITMO EVOLUTIVO PARA EL JUEGO CUATRO EN RAYA
Portugal Durán Willy Ernesto, Rios Miranda Bhylenia Yhasmyna
pwilly_ernesto@hotmail.com, bhylenia@hotmail.com
Universidad Mayor de San Andrés
Carrera de Informática
Gramática Española
RESUMEN
Los algoritmos genéticos y la computación evolutiva
han sido aplicados a los juegos de estrategia en cual
fueron totalmente implementados como se observa en
el presente artículo con el juego cuatro en raya.
Palabras clave: Juego, juego de estrategia,
Inteligencia artificial, algoritmo genético.
ABSTRACT
Genetic algorithms and evolutionary computation
have been applied to the strategy games in which they
were fully implemented as observed in the present
article with the game four in a row.
Keywords: Game, strategy game, artificial
intelligence, genetic algorithm.
1.	INTRODUCCIÓN.
Los juegos de estrategia en cierta manera están creados
para tener diferentes tipos de alternativas de solución,
en las que matemáticamente son diseñadas a través
de diferentes algoritmos que con la programación
resulta ser una manera de solucionar diferentes
tipos de alternativas que miden la inteligencia y las
habilidades de un jugador.
Cada algoritmo resulta ser un conjunto de pasos
organizados de describe una serie de procesos que
buscan llegara a una solución.
Los algoritmos genéticos es una técnica de
programación que imita a la evolución biológica
para resolver problemas. El proceso en un algoritmo
genético es un conjunto de soluciones a resolver
un problema que son codificadas. Cada algoritmo
genético es una función matemática o una rutina de
software.
Esta técnica en lo formal son métodos adaptativos que
pueden usarse para resolver problemas de búsqueda y
optimización. 
2.	 METODOLOGÍA
Juegos de estrategia son los juegos  donde se mide
la  inteligencia, habilidades técnicas, planificación
para que el jugador llegue a la victoria.
La estrategia en un juego es un plan de acción
en cualquier situación que determina la conducta
del jugador y cada jugada está caracterizada por
movimientos que en cierta manera esta influencia por
una descripción matemática de una conducta que tiene
relación con la programación y los algoritmos.
Un movimiento es una acción que toma un jugador
en un determinado momento en el juego como por
ejemplo en el ajedrez. El número de movimientos en
el  juego tres en raya es cuatro o cinco (dependiendo
de si el jugador empieza o no, y considerando que
ninguno de los jugadores puede saltarse un turno),
mientras que el número de estrategias es superior a
seis billones
Una  estrategia pura  proporciona una definición
completa para la forma en que un jugador puede jugar
a un juego. En particular, define, para cada elección
posible, la opción que toma el jugador (DEL, 2014).
La teoría de juegos es un área de la matemática
aplicada que utiliza modelos para estudiar
interaccionesenestructurasformalizadasdeincentivos
que son llamados juegos. La teoría de juegos se ha
convertido en una herramienta importante para la
teoría económica y ha contribuido a comprender
más adecuadamente la conducta humana frente a la
toma de decisiones. Los estudiosos o investigadores
estudian las estrategias más óptimas así como el
comportamiento previsto y observado de individuos en
juegos. Tipos de interacción aparentemente distintos
pueden, en realidad, presentar estructura de incentivo
similar y, por lo tanto, se puede representar mil veces
conjuntamente un mismo juego (Rubinstein, 2012).
2
Lo importante en las ciencias de la computación en
el área de la inteligencia artificial son los algoritmos
genéticos y la computación evolutiva que permite
resolver problemas de optimización combinatoria
como estrategia para resolver problemas.
Los Algoritmos Genéticos denominados AG o AGs
son métodos adaptativos que son capaces de crear
soluciones para los diferentes problemas a través de
búsqueda y optimización de las soluciones.
Según Moujahid, Inza y Larrañaga (s.f.) indican que
la evolución de los algoritmos genéticos que han
sufrido en el tiempo depende de los valores óptimos
del problema y de codificación del mismo, por lo cual
se debe tomar en cuenta el pseudocódigo del algoritmo
genético en su forma abstracta que se describe en la
figura 1.
Figura 1. Pseudocódigo del Algoritmo Genético Abstracto
Fuente: (Moujahid, Inza y Larrañaga, s.f.)
Una importante característica de los Algoritmos
Genéticos Abstracto constituye la optimización de
funciones, donde Moujahid, Inza y Larrañaga (s.f.)
consideran a un Algoritmo Genético Abstracto como
una 10-tupla de la siguiente forma:
Figura 2. 10-tupla de AGA
Fuente: (Moujahid, Inza y Larrañaga, s.f.)
Donde:
Figura 3. Características 10-tupla de AGA
Fuente: (Moujahid, Inza y Larrañaga, s.f.)
Para la Computación Evolutiva se utiliza técnicas
de resolución de problemas los cuales se basan
en la misma naturaleza y como se comportan los
animales, insectos, utiliza mecanismos de selección
de soluciones que se consideran los más potenciales
y luego con ellos se construye nuevos candidatos
mediante la combinación de sus características.
Según Diéguez, Ovejero y Roblero (2003, p. 3)
indican que: “La Programación Evolutiva es una
técnica de Computación Evolutiva útil para incorporar
conocimiento específico a los Algoritmos Genéticos y
de esta forma mejorar la eficiencia de éstos”.
Por lo cual la Programación Evolutiva engloba la
evolución de los algoritmos genéticos permitiendo
encontrar soluciones más optimas y mejores.
También la programación de juegos está
convirtiéndose hoy en día en un campo muy estudiado
donde se investigan y aplican técnicas gráficas,
algoritmos, Inteligencia Artificial y otras técnicas. En
la programación de juegos se utilizan frecuentemente
técnicas de optimización para resolver diferentes
problemas, programación evolutiva y los algoritmos
genéticos.
2.1 JUEGO CUATRO EN RAYA.
El juego de “Cuatro en Raya” tiene siglos de
antigüedad, se conoce de este juego desde que el
capitán James Cook solía jugar con sus oficiales en
sus largos viajes, así que también se lo llama a este
juego “La señora del capitán”, ahora este juego es
propiedad de la empresa Hasbro para su distribución.
El juego “Cuatro en Raya” es un juego de estrategia
para dos jugadores que consisten en una matriz o tabla
de dimensión de seis filas por siete columnas (esta
dimensión puede tener variaciones de tamaño) y cada
jugador va colocando una ficha de color (siendo las
más usuales roja y azul) a la vez la cual por defecto
siempre se acomoda en la parte inferior de la columna
y gana aquel jugador que forme
cuatro fichas del mismo color en una fila pudiendo ser
horizontal, vertical o diagonal.
3
Figura 4. Tablero de Cuatro en Raya
Fuente: Elaboración propia
En un juego de computadora, el usuario compite con
el ordenador, donde debe llegar a formar cuatro fichas
del mismo color continuas para ser el ganador.
Figura 5. Tablero de Cuatro en Raya
Fuente: Elaboración propia
2.2 ASPECTOS DEL ALGORITMO
EVOLUTIVO
La función de evaluación está dada por puntuación de
la ficha de acuerdo a su ubicación en el tablero con
relación a las otras fichas.
Según el juego avanza las estrategias deben ir
evolucionando y la función de adaptación va variando.
La interacción del usuario con el ordenador provoca
que las jugadas se hagan más dinámicas, y el lugar
donde se coloque las fichas dependa en todo momento
de lo que el contrincante haya hecho en su último
jugada.
Por ello se puede generar una población de individuos
en cada iteración, individuos que representarían
las posiciones más aconsejables a cubrir dentro del
tablero.
2.3 REPRESENTACIÓN DE LA POBLACIÓN.
La población es un conjunto de casillas, representadas
con números que corresponden a cada casilla del
tablero. Todas esas casillas que genera el ordenador
en cada ronda, deben estar dentro de los límites del
tablero y además corresponder solo a las casillas
vacías. De forma estructurada se puede representar a
la población de la siguiente forma:
Vector <TIndividuo*> _poblacion;
Donde el “Vector” es un vector de punteros que
representa a los individuos o posiciones del tablero
vacías.
Figura 6. Vector gráfico de punteros al inicio del juego
Fuente: Elaboración propia
Figura 7. De un juego cualquiera su representación de su
vector gráfico de punteros
Fuente: Elaboración propia
2.4 GENERACIÓN DE LA POBLACIÓN.
La población está representada en un vector de
punteros que representa a los individuos o posiciones
del tablero, la generación de los individuos hay que
realizarlo en cada iteración, se genera y almacena
junto a cada individuo para su adaptación.
2.5 REPRESENTACIÓN DE LOS
INDIVIDUOS Y GENERACIÓN DE LOS
INDIVIDUOS.
Un individuo está representado en una casilla del
tablero a través de su posición (fila y columna) y el
color de ficha (Azul o Rojo) de la siguiente manera:
Figura 8. Código adaptado que representa a los individuos
Fuente:(Diéguez, Ovejero y Roblero, 2003)
4
Figura 9. Representación gráfica de individuos
Fuente: Elaboración propia
Como se ve en la figura 9 cada individuo para ser
identificado esta combinado de un componente x,
componente y, un color que identifica al jugador.
Para que una casilla pueda ser ocupada tiene que
estar vacía previamente.
2.6 FUNCIÓN DE ADAPTACIÓN.
La población es un conjunto de casillas que el
ordenador administra o baraja teniendo una serie
de posibilidades para escoger y debe elegir una
posición clave y como de eso se encarga la función de
adaptación de ahí su importantísima. Según Diéguez,
Ovejero y Roblero (2003, p. 28) indican que en una
función de adaptación se debe tomar en cuenta la
siguiente:
	 Que la jugada consiga el mayor número posible de
fichas en línea, siendo el cuatro en raya la mejor de
las jugadas.
·	 Que la jugada tapone las buenas jugadas de nuestro
contrincante.
	 Y si la jugada no consigue nada positivo en un
primer instante, que la jugada por la que nos
decidamos, si tenga expectativas de futuro, es decir
que sea provechosa, que emprenda algo positivo.
Entonces antes de realizar la siguiente jugada se debe
analizar las condiciones actuales del tablero y ver
los diferentes estados del juego, o sea las posiciones
de nuestras fichas y las de nuestro contrincante que
se reflejan en una matriz formada por vectores de la
siguiente forma:
vector<vector<void*> > *matriz;
Figura 10. Aptitud = 100, si conseguimos cuatro en raya.
Fuente: Elaboración propia
Para cada jugada se le puede asignar un peso de
acuerdo a la importancia de la jugada por ejemplo se
muestra en la figura 10 y 11:
Figura 11. Aptitud = 50, si bloquea alguna jugada de tres
seguidos.
Fuente: Elaboración propia
Entonces tomando en cuenta la explicación anterior
mostraremos parte del código de la función de aptitud
que de acuerdo a las posiciones y logros en el juego va
acumulando un valor:
5
Figura 12. Código adaptado de la función aptitud
Fuente:(Diéguez, Ovejero y Roblero, 2003)
Para la ejecución de la función aptitud se debe tomar
en cuenta la posición selecciona para colocar la ficha
y todas las fichas del mismo color que se encuentra
en todos el contorno, de igual manera las fichas del
contrincante cuando para ver que tanto se bloquea su
juego.
Figura 13. Explicación gráfica de la función aptitud
Fuente: Elaboración propia
2.7 FUNCIÓN DE SELECCIÓN, FUNCIÓN
DE REPRODUCCIÓN Y FUNCIÓN DE
MUTACIÓN
Para el juego cuatro en raya las función de selección,
reproducción y mutación, no tienen sentido porque
cada jugador elige una posición para jugar y en cada
nueva iteración se escoge al mejor individuo, indican
una columna donde se coloca la ficha y la fila por
defecto es la más profunda.
2.8 PRESENTACIÓN DE LA SOLUCIÓN
El juego de cuadro en raya es un juego para dos
jugadores que se lo lleva jugando desde hace varios
años atrás donde el tablero convencional es de seis
filas por siete columnas, a continuación se muestran
algunas imágenes de tableros de este juego en
diferentes versiones y presentaciones:
Figura 14. Juego cuatro en raya
Fuente: Imagen del internet
Figura 15. Juego cuatro en raya gigante
Fuente: Imagen del internet
Figura 16. Juego cuatro en raya en computadora
Fuente: Imagen del internet
Figura 17. Juego cuatro en raya utilizado para este artículo
Fuente: Elaboración propia
2.9 VERSIONES DEL JUEGO CUATRO EN
RAYA
En este artículo se trabajo con la versión original del
juego cuatro en raya pero existen variaciones de este
juego entre las cuales se menciona las siguientes:
	 Se puede modificar el tamaño del tablero
manteniendo las reglas del juego.
·	 Se puede jugar en un tablero de ajedrez donde se
tiene la libertad de colocar en cualquier posición
no necesariamente como el juego original en la
primero fila, luego la segunda y así sucesivamente.
·	 También se puede jugar hasta llenar todo el tablero
con las fichas donde se puede realizar varias veces
cuatro en raya y ganara el que pudo realizar más
veces.
6
2.10 BENCHMARKING ENTRE LOS
ALGORITMOS ANALIZADOs
Los Benchmarks son pruebas capaces de determinar
el programa, algoritmo, proceso es más potente o
rápido sin necesidad de revisar un código o pasos a
seguir, en el caso del juego cuatro en raya se puede
aplicar benchmarking en los siguientes casos:
	 Se puede aplicar el benchmarks incluyendo en el
código que controle la hora de inicio del juego,
la hora final y finalmente saca la diferencia de
estas horas para dar como resultado el tiempo de
duración de un juego, pero muchas veces el tiempo
empleado en el juego no sugiere que sea un mejor
juego por durar más tiempo.
·	 También el benchmarks se puede obtener mediante
el valor obtenido de la función de aptitud ya que la
misma mientras se juega va almacenando valores
según se vaya colocando fichas en el tablero y
bloqueando las jugadas del contrincante, cuando
mayor sea este número implica que se realizo más
estrategias en las jugadas.
3.	 CONCLUSIONES.
Los algoritmos genéticos pueden ser utilizados en
todos los juegos de estrategias, pero no necesariamente
se pueden ejecutar todas las funciones de algoritmos
genéticos por las características de los juegos.
Los Algoritmos Genéticos Abstractos están formados
por varias funciones y características identificados
en 10-tuplas que se deben identificar para aplicar los
pasos de algoritmos genéticos.
Existen varios juegos estratégicos que funcionan
con el uso de algoritmos genéticos como ser: Age
of Empires, Caesar 3, héroes of Might & Magic,
Civilization, Warhammer 40000 entro otros que son
juegos conocidos de computadora y también en juegos
de mesa originalmente que ahora ya tiene su versión
para computadora como Master mind, Laberinto,
Puzzle, Tres en raya, Ajedrez entre los más populares.
La programación evolutiva también se aplica en
juego de estrategia ya que permite el entrenamiento
y evolución del juego lo que implica la aplicación de
nuevas y más estrategias en el juego.
4.	 REFERENCIAS BIBLIOGRÁFICAS.
Coello, C. (2017). Introducción a la computación
evolutiva. CINVESTAV-IPN. Departamento
de Computación. México
Diéguez, A., Ovejero, R. y Roblero, A. (2003).
ImplementacióndeJuegosusandoAlgoritmos
Evolutivos. Sistemas Informáticos Curso
2003 – 2004. Universidad Complutense.
DEL (2014). Diccionario de la Lengua Española.
Edición del Tricentenario. Real Academia
Española.
Flores, J. (s.f.). Teoría de juegos.
Moujahid, A., Inza, I. y Larrañaga, P. (s.f). Algoritmos
Genéticos. Departamento de Ciencias de
la Computación e Inteligencia Artificial.
Universidad del País Vasco Euskal Herriko
Unibertsitatea.
Murillo, J., Collado, J., García, I. y García, M. (2004).
Implementación de Juegos de Estrategia
con Programación Evolutiva. Sistemas
Informáticos Curso 2004 – 2005.
Rubinstein, A. (2013). De cómo la teoría matemática
de los juegos de estrategia resolverá los
problemas de la Eurozona y frenará las
armas nucleares iraníes.
Rudolph,G.(1994).Convergenceanalysisofcanonical
genetic algoritms. IEEE Transactions on
Neural Networks.
Stender, J (1993). Parallel Genetic Algorithms:
Theory and Applications. IOS Press.
7
ALGORITMOS TIPO HASH (MD5-SHA512)
Villavicencio Jhonny, Condori Ali Pierre, Cruz Quino Benjamin
jhonny@hotmail.com, pierre731i@hotmail.com, bj606340@hotmail.com
Universidad Mayor de San Andrés
Carrera de Informática
Gramatica Española
RESUMEN
En la actualidad existe dos métodos de encriptación
más usados es el MD5 (Message-Digest Algorithm
5, Algoritmo de Resumen del Mensaje 5) y el al-
goritmo SHA-1 (Secure Hash Algorithm, Algoritmo
de Hash Seguro), MD5 perdió la confiabilidad
de los usuarios debido a que resulto no ser
tan segura en sustitución de esta se aplicó el
SHA-1, el cual contribuye más confiablidad
a la información pública, privada de los
usuarios.
Palabras clave: Encriptación, MD5, SHA, confiabi-
lidad, segura.
ABSTRACT
Cryptography is the study of mathematical techni-
ques related to aspects of information security such
as confidentiality, data integrity, entity authentication,
and data origin authentication, cryptography is not the
only means of provid-ing information security, but
rather one set of techniques.
Keyword: Encryption, MD5, SHA, reliability, secure.
1. INTRODUCCIÓN
Una gran mayoría de las personas tienen información
personal, publica, privada presente en la nube, con el
objetivo de estar disponible en cualquier lugar en que
nos encontremos, siempre que tengamos conexión a
internet, en la actualidad la información siempre está
al asecho de los ladrones informáticos.
En los métodos de encriptación los métodos de cripto-
grafía se lo considera que son aquellos que involucran
a algunos algoritmos criptográficos, ya que tienen
como objetivo final desarrollar un método de encrip-
tación las cuales brindan seguridad y confianza en la
manipulación de los datos. Por eso los métodos de
encriptación son muy importantes ya que es por donde
se envía el texto a cifrar se asegura la implementación
de galerías de algoritmos criptográficos para el pleno
funcionamiento para lo cual se tendría que conformar
una cierta posibilidad.
El concepto de principal de las funciones que se rea-
lizan dentro de las funciones de una vía, las encrip-
taciones de hash tienen como objetivo implementar
más seguridad y confianza en el momento de enviar
documentos por la Web. No se utilizan para encriptar
Información, sino que forman parte fundamental de
muchos algoritmos y técnicas criptográficas.
Un algoritmo consiste en un conjunto determinado
y finito de pasos o acciones con el objetivo de solu-
cionar un problema. Los algoritmos criptográficos
son funciones matemáticas que son utilizadas en los
procesos de encriptación o des encriptación de datos,
que será la entrada o parámetro de las funciones. Debe
entenderse que las encriptaciones y des encriptaciones
sean finitas.
La criptografía es el estudio de técnicas matemáticas
relacionadas con los aspectos de la seguridad de la in-
formación tales como la confidencialidad, la integri-
dad de datos la autentificación de entidad y de origen.
La criptografía no comprende solo a los medios para
proveer seguridad de información sino a un conjunto
de técnicas.
2. DESARROLLO
En el presente apartado explicaremos algunos tipos de
encriptación, una utilizada confiablemente en la actua-
lidad (Algoritmo MD5) y otra que en el año 2004 fue
vulnerable de tal manera que perdió la confiabilidad
en la comunidad de desarrolladores (Algoritmo SHA).
En interpretación del tema una vía hash se refiere a los
distintos tipos de encriptación que cumplen funciones
en la cual se podrá comparar resultados e igualar si-
militudes entre otros métodos de encriptación, a partir
del resultado serán segura, aunque dispongamos de
toda capacidad de procesamiento que podamos adqui-
rir.La criptografía hoy en día cubre distintos objetivos
a veces muy alejados del tradicional y más
8
conocido de la transmisión segura de información.
Este tipo de aplicaciones se engloba dentro de lo que
denomina protocolo criptográfico que es un protocolo
que utiliza como herramienta algún algoritmo cripto-
gráfico. Existe una amplia variedad de ellos que dan
respuesta a diferentes objetivos. Se trata de un tema
amplio y en rápido crecimiento. (López, 1998).
1.1	 Algoritmo MD5
Dentro de la encriptación estas se entrelazan en ron-
das, cada ronda implementa una serie de operaciones
en la cual la aplicación de la función o galería imple-
mentada en los lenguajes de programación esta dispo-
ne de 16 repeticiones. Cada una de estas funciones co-
rresponden a una línea que de pronto se implementan
variables en cada uno de los procesos mencionados ya
que junto a ello conforman varias variables con datos
de bits, finalmente el resultado remplazara el conteni-
do de alguna de las variables inicializadas. (Figura 1).
Figura 1. Muestra los distintos algoritmo
de encriptación y los resultados.
Fuente. (Autoría propia,2017)
Los algoritmos se producen a través de una entrada
no limitada en cuanto a su tamaño una encriptación es
un resumen de 128 bits de longitud. Se lo emplea ac-
tualmente en diferentes aplicaciones de seguridad una
de las mas populares es la codificación de archivos y
mensajes. Desde muchos sitios web que ofrecen des-
cargas de archivos se ofrece también el resultado de la
encriptación obteniendo a partir del archivo a manera
de revisar o comprobar para poder confirmar luego de
descargarlo y obtener de fuentes secundarias para que
se pueda manipular con facilidad la encriptación.
Estas comprobaciones sueles representarse en una ca-
dena de 32 caracteres alfanuméricos que pertenecerán
a los 16bytes en formato hexadecimal. Al menos por
ahora no se ha descubierto una técnica que permita
obtener una entrada original a la encriptación o alterar
a discreción de un archivo o también puede ocurrir
una expulsión a través de los bits sobrantes.
Es un algoritmo que proporciona un código asociado
a un archivo o un texto concreto. De esta manera el
archivo viene unido al archivo, en el que el archivo
también es conocido como hash. Es representada por
un número de 32 dígitos en hexadecimal, un mínimo
cambio dentro de la palabra nos dará como resultado
un cifrado distinto.
Con el hash de la descarga buscamos en web datos
del programa y buscar el código MD5 de su instala-
dor original, ya una vez tengamos ambos códigos se
pasa a verificar si estos coinciden y ver si el archivo
es confiable.
1.1.1	 VENTAJAS DE LOS ALGORITMOS
DE ENCRIPTACIÓN
•	 Para asegurarnos que es una encriptación e
instalación fiable.
•	 Crear un propio código MD5 para quien haga
el uso y compruebe su integridad.
•	 En la instalación de un firmware es donde
proporciona información referente a la seguridad
del archivo, y dar informes sobre la complejidad
ya que al realizar una instalación esta te detecta
archivos incompletos o dañados.
Figura 2. Ventajas de encriptación.
Fuente. (www.genbetadev.com,2017)
MD5 ha sido ampliamente usado, y originalmente se
pensaba que era criptográficamente seguro. No obs-
tante, ciertas investigaciones han destapado vulnera-
bilidades que hacen cuestionable un futuro uso del
MD5. El 17 de Agosto del año 2004 Xiaoyun Wang,
Dengguo Feng, Xuejia Lai y Hongbo Yu anunciaron
que habían descubierto colisiones de hash para MD5.
Su ataque sólo llevó una hora de cálculo con un clúster
IBM P690.
9
Aunque el ataque de Wang era analítico, el tamaño
del hash (128 bits) es suficientemente pequeño para
poder contemplar ataques de ‘fuerza bruta’ tipo ‘cum-
pleaños’. MD5CRK era un proyecto distribuido que
comenzó en Marzo del 2004 con el propósito de de-
mostrar que MD5 es inseguro encontrando una coli-
sión usando un ataque de ‘fuerza bruta’, aunque acabó
poco después del aviso de Wang. (Kriptopolis, 2015).
1.2	 ALGORITMO SHA
Está basado en la técnica de MD5, la primera versión
fue publicado en 1993 renombrado como SHA, en la
actualidad se lo conoce como SHA-0, dos años des-
pués se publicó el SHA-1, es considerado el mejor al-
goritmo de la familia de Algoritmos Hash, es el más
aplicable el cual actualmente se considera el más se-
guro, su encriptación produce un código hash de 160
bits para mensajes de longitud máxima de 264 bits,
aunque también se puede notar que se producen códi-
gos de mayor longitud en algunas variantes.
Fue diseñado para ser utilizados en modo básico que
implementa el algoritmo DSA ya que existen cinco
versiones o variantes del algoritmo SHA-1 que es el
más utilizado actualmente ya que la criptografía es de
160 bits y las versiones que lo siguieron fueron mejo-
radas y en las cuales tuvieron nuevos nombres como
ser SHA-2y que corresponden al distintos conjuntos
de algoritmos como ser el SHA-224, SHA-255, SHA-
384 y SHA-512, (Figura 3). las cueles tienen distintas
funciones específicamente estos algoritmos son más
seguros que las anteriores versiones ya que en cada
modificación hay una diferencia en la encriptación
ya que a partir de ello todos son fáciles de encriptar.
Figura 3. Se muestra el algoritmo funcional.
Fuente. (www.google.com,2017)
También como el algoritmo MD5 el proceso principal
consta de un ciclo dentro cual en cada encriptación se
procesan 512 bits del mensaje o información de entra-
da. Una diferencia para notar que en cada encriptación
se aplica una nueva función que no es lineal como en
MD5, pero 20 veces en lugar 16. Las condiciones en la
encriptación son más sencillas y similares al momento
de programar.
En 1998, un ataque a SHA-0 fue encontrado pero no
fue reconocido para SHA-1, se desconoce si fue la
NSAquien lo descubrió pero aumentó la seguridad del
SHA-1.SHA-1 ha sido examinado muy de cerca por la
comunidad criptográfica pública, y no se ha encontra-
do ningún ataque efectivo; en todos los aspectos son
de vulnerabilidad esto ha planteado dudas sobre la
seguridad a largo plazo de SHA-1 y por lo cual serán
más seguros.
Está representada por una cadena de 40 dígitos en
hexadecimal, claramente es más seguro que MD5,
pero bajo ataque de fuerza bruta deja de ser efectivo,
también está diseñado para trabajar con el Algoritmo
de Firma Digital.
1.2.1	 PROCESO
Consta de cinco pasos los actuales se explican a con-
tinuación:
•	 Se incorpora bits de relleno que consiste en
uno seguido de los ceros que sean necesarios el
rango de relleno está entre 1 a 512.
•	 Se le añade un bloque de 64 bits que repre-
senta la longitud del mensaje original antes de ser
rellenado.
•	 Se inicializa la memoria temporal MD, que
costa de 160 bits, la cual almacena los resultados.
La MD consta de 5 registros (A, B, C, D, E) de 32
bits cada uno, los valores con los que se inicializan
son las siguientes (valores hexadecimales):
•	 A: 67452301	 B: EFCDAB8
C: 98BADCFED: 10325476	 E: C3D2E1F0
•	 Se procesa el mensaje por bloques de 510
bits, cada uno pasa por un módulo que consta de
cuatro rondas de procesamiento de 20 pasos cada
una. Las rondas tienen una estructura similar, con
la excepción de que cada una ocupa una función
lógica primitiva diferente (F1, F2, F3 y F4).
•	 Una vez se procesan los bloques de 510 bits,
el resumen del mensaje son los 160 bits de salida
del último bloque.
En este documento “palabra” es una entidad de 32 bits
y un byte es una entidad de 8 bits. Una secuencia de
10
bytes puede ser interpretada de manera natural como
una secuencia de bits, donde cada grupo consecutivo
de ocho bits se interpreta como un byte con el bit más
significativo al principio.
1.2.2	 CARACTERÍSTICAS
Los algoritmos criptográficos tienden a degradarse
con el tiempo. A medida que transcurre el tiempo, los
algoritmos de encriptación se hacen más fáciles de
quebrar debido al avance de la velocidad y potencia
de los equipos de computación. Todos los algoritmos
criptográficos son vulnerables a los ataques de fuerza
bruta, tratar sistemáticamente con cada posible clave
de encriptación, buscando colisiones para funciones
hash, factorizando grandes números, etc. La fuerza
bruta es más fácil de aplicar en la medida que pasa
el tiempo.
•	 Es imposible encontrar un mensaje que sea
similar.
•	 Si cambia, será solo un carácter t el resultado
será muy diferente.
•	 No se encontrará dos mensajes diferentes
con el mismo mensaje.
1.3	 COMO ENCRIPTAR CONTRASEÑAS
EN JAVA
En esta ocasión damos a conocer cómo encriptar con-
traseñas en Java con MD5y SHA. Vamos a hacer uso
de una librería que nos proporciona la Apache Sof-
tware Fundación. La librería es la Apache Commons
Codec 1.10 (Figura 4).
•	 Descargamos la librería.
•	 La descomprimimos.
•	 Buscamos el jar llamado commons-co-
dec-1.10.jar.
•	 Lo incorporamos al proyecto iniciado.
•	 Agregar a la clase
Import.org.apache.commons.codec.digest.Diges-
tUtils;.
Figura 4. Muestra de la librería agregada.
Fuente. (Autoría propia,2017)
Funciones en un solo sentido se caracterizan por dos
propiedades. La primera es que son de sentido úni-
co. Esto significa que usted puede tomar un mensaje
y calcular un valor de hash, pero no se puede tomar un
valor recrear el mensaje original. También es libre de
colisión y, por tanto, no hay dos mensajes hash con el
mismo valor.SHA‐1 ha sido examinado muy de cerca
por la comunidad criptográfica pública. No obstante,
en el año 2004, un número de ataques significativos
fueron divulgados sobre funciones criptográficas de
hash con una estructura similar a SHA‐1; lo que ha
planteado dudas sobre la seguridad a largo plazo de
SHA‐1. (Wolf, 2009).
1.3.1 ENCRIPTAR MD5
Aquí estamos haciendo uso de la clase DigestUtils y
su método md5Hex(), el cuál recibe un parámetro que
es la cadena a encriptar y retorna una cadena que ya
está encriptada (Figura 5).
Figura 5. Resultado del algoritmo MD5.
Fuente. (Autoría propia,2017)
1.3.2 ENCRIPTAR SHA
Aquí estamos haciendo uso de la clase DigestUtils y
su método sha1Hex(), el cuál recibe un parámetro que
es la cadena a encriptar y retorna una cadena que ya
está encriptada (Figura 6).
11
Figura 6. Resultado del algoritmo SHA.
Fuente. (Autoría propia,2017)
La encriptación informática sería la codificación la in-
formación de archivos o de un correo electrónico para
que no pueda ser descifrado en caso de ser intercepta-
do por alguien mientras esta información viaja por la
red. Es por medio de la encriptación informática como
se codifican los datos. Solamente a través de un sof-
tware de descodificación que conoce el autor de estos
documentos encriptados es como se puede volver a
decodificar la información.
Por lo que la encriptación informática es simplemente
la codificación de la información que vamos a enviar
a través de la red (Internet). Para poder descodi-
ficarla como dijimos es necesario un software o una
clave que sólo conocen el emisor y el receptor de esta
información. La encriptación de la informática se hace
cada vez más necesaria debido al aumento de los ro-
bos de claves de tarjetas de crédito, número de cuentas
corrientes, y en general toda la información que viaja
por la red, etc. (Figura 7).
Figura 7. Encriptación en Java MD5 y SHA.
Fuente. (Autoría propia, 2017)
Todo esto ha fomentado que se quiera conseguir una
mayor seguridad en la transmisión de la información
sobre todo a través de Internet. Es por ello que
las últimas versiones de los navegadores de Internet
ya usan sistemas automáticos de encriptación de datos
para que sea más difícil para los hackers robarlos y en
la cual se tendría que implantar más algoritmos a la
función que ejecutan cada uno de ellos ya que se ten-
dría un resultado eficiente y seguro (Figura 8).
Figura 8. Resultado de la encriptación en JAVA.
Fuente. (Autoría propia, 2017)
2. CONCLUSIONES
La encriptación se definió como parte de la cristología
y se ocupan de distintas técnicas, bien sean aplicadas
el arte o la ciencia, que alteran mensajes, mediante
técnicas de cifrado o codificado, hacerlos difícil de en-
tenderlas y que sean difíciles de entender por los intru-
sos para que los interpreten. Por tanto, el objetivo de
la criptografía es conseguir la seguridad del usuario.
La encriptación es muy necesaria para la transferencia
de datos e información y cómo podemos ver también
tiene algunos puntos débiles como en MD5 que pudo
ser burlada pero también así se busca mejores méto-
dos para encriptar dicha información como podemos
notar el caso del algoritmo SHA que trajo consigo una
solución al problema del MD5.
En conclusión, la criptografía en uno de los métodos
para proteger la información, forma parte de la segu-
ridad informática y existen diferentes tipos de encrip-
tación, cada uno de ellos tienen diferentes funciones.
3. REFERENCIAS BIBLIOGRÁFICAS
Bellaleislyeva.blogspot (2011), Los métodos de en-
criptación son seguros, pero a la vez inseguros
en la cual existe un buen resultado en la se-
guridad. Recuperado de: http://bellaleislyeva.
blogspot.com/2011/05/seguridad-y-encripta-
ción-de-bases-de.html?m=1
Canalvisualbasic (2016), Una caída del estándar SHA-
1 también afectaría a la seguridad de los certi-
ficados digitales. Recuperado de: http://www.
canalvisualbasic.net/foro/seguridad-y-encrip-
12
tacion/encriptacion-algoritmo-sha-1-a-7145/
Elmonton (2016), Crakeador de hash´s MD5 Online y
Offline. Recuperado de: http://www.elmonton.
net/MD5_Crack.php?contenido=md5crack
Eumet (2017), Es uno de los algoritmos de reducción
criptográficos diseñados por el profesor Ronald
Rivest. Recuperado de: http://www.eumet.net/
algotitmos/encriptaciondedatos/
Kriptopolis (2015), SHA-0 y SHA-1 producen una
salida resumen de 160 a 264 bits. Recuperado
de: http://www.kriptopolis.org/debilidad-sha1
MD5-python (2010), Código desglosado de MD5 en
Python. Recuperado de: http://md5-python.
comxa.com/
Msmanuelsanchez blogspot (2015), El Cifrado de có-
digos tiene que ser muy complejo y difícil de
entender. Recuperado de: http://msmanuelsan-
chez.blogspot.com/2015/10/tipos-de-cifrados-
sha-md5-rsa.html?m=1
Oroyfinanzas (2017), Tiene definiciones y anécdo-
tas sobre personas que frecuentemente usan
la encriptación actual por lo cual es más usa-
do. Recuperado de: https://www.orofinanzas.
com/2014/01/algoritmo-sha-256-protoco-
lo-bitcoin-secure-hash-algorithm/
Puertosabiertos (2014), Cifra texto en algoritmo MD5
y algoritmo SHA. Recuperado de: http://www.
puertosabiertos.com/
Scripbd (2017), Encriptación y cifrado son muy dife-
rentes ya que unos de otro cumplen distintos
trabajos. Recuperado de: https://es.scribd.com/
movile/doc/55231771/Encriptacion-o-Cifra-
do-de-Datos
Sarasa López, M. A., Pastor Franco, J., & Salazar
Riaño, J. L. (1998). Criptografíafundamentos
y aplicaciones. Zaragoza: Prenseas Universi-
tarias de Zaragoza.
Wolf, S. (2009). Unconditional Security in Cryptog-
raphy. Swiss Federal Institute of Technology.
Zürich.
13
ANDROID OREO VERSIÓN 8.0
Quino Terán Obed, Quispe Paco Marcos, Suxo Gandarillas Wilmer Rodrigo
obedquinoteran@gmail.com, marcosDota7@gmail.com, wilkpo07@gmail.com
Universidad Mayor de San Andrés
Carrera de Informática
Gramática Española
RESUMEN
La última versión de Android presentada oficialmen-
te por los desarrolladores de Google el 21 de agosto
de 2017 llamada Oreo debido a las famosas galletas
Oreo tiene interesantes novedades las cuales tenemos
entendido que son 27 en total, en el presente artícu-
lo presentaremos las características que nos parezca
principales o más interesantes, estas novedades no las
podemos criticar todavía su desempeño en los dife-
rentes dispositivos más conocidos ya que las actua-
lizaciones tardaran un poco en llegar, depende de los
fabricantes de cada compañía, entonces por esa razón
también presentaremos mediante una tabla los dispo-
sitivos confirmados para la actualización a la última
versión.
Palabras Clave: Android, aplicación, dispositivo,
Google, Oreo, Rom, versión.
ABSTRACT
The latest version of Android officially presented by
Google developers on August 21, 2017 called Oreo
due to the famous Oreo cookies has interesting news
which we understand that there are 27 in total, in this
article we will present the features that we think are
the most important or more interesting, these develop-
ments we can not criticize yet their performance in the
different devices better known as the updates will take
a while to arrive, depends on the manufacturers of
each company, so for that reason we will also present
through a table the confirmed devices for the update to
the latest version.
Keywords: Android, application, device, Google,
Oreo, Rom, version.
1. INTRODUCCIÓN
Se dice que la mayoría de las personas que poseen
dispositivos móviles utilizan el sistema operativo de
la mano de Google: Android, estamos seguros que los
fanáticos estaban pendientes del lanzamiento de
la más reciente versión, el cual es denominado Oreo
como ya nos tienen acostumbrados los desarrolladores
que utilizan nombres de postres o dulces para las ver-
siones principales.
Desde que se lanzó la versión 1.0 de Android en sep-
tiembre de 2008 fue creciendo poco a poco este siste-
ma que fue vendida a Google posteriormente. Tal vez
las versiones más conocidas que marcaron una gran
diferencia fueron la 2.3 Gingerbread que presentaba
un entorno más amigable, luego la versión 4.0 Ice
Cream Sandwich que tenía mejores características
y el entorno sería aún más amigable. A partir de la
versión 4.1 Jelly Bean se requirió mejores dispositi-
vos para su desempeño, así que las compañías más co-
nocidas como Sony, Samsung y demás, desarrollaron
equipos de gama media-alta y de gama alta que fueron
insignias de cada fabricante por un cierto tiempo hasta
que salían nuevos modelos.
2. DESARROLLO
2.1 DEFINICIÓN DE ANDROID
Hoyendíaestetérminoyaesmanejadocomotalgracias
a la gran fama que alcanzo el sistema operativo, pode-
mos citar la siguiente definición:
“Android es un sistema operativo inicialmente pensa-
do para teléfonos móviles, al igual que iOS, Symbian
y Blackberry OS. Lo que lo hace diferente es que está
basado en Linux, un núcleo de sistema operativo libre,
gratuito y multiplataforma.” (Nieto, 2011)
Figura 1. Logo oficial de Android
Fuente: (García, 2012)
14
El logo de Android es diseñada por Irina Blok inspira-
da en un simpático robot, apodado Andy.
También podemos mencionar que fue desarrollado
inicialmente por Android Inc. compañía fundada por
Andy Rubinen 2003 y comprada por Google en 2005.
El primer teléfono móvil que tuvo el sistema operativo
Android fue un HTC Dream que fue lanzado en 2008.
A continuación presentamos todas las versiones hasta
el momento:
Nombre Versión
Android 1.0 (Apple Pie) 1.0
Banana Bread (pan de plátano) 1.1
Cupcake 1.5
Donut 1.6
Android 2.0
Éclair(pepito francés)
2.0 y 2.1
Froyo(abreviatura de frozen de
yogurt)
2.1
Gingerbread(pan de jengibre) 2.3
Honeycomb
3.0, 3.1,
3.2
Ice Cream Sandwich 4.0
JellyBean 4.1, 4.2
KitKat(chocolatina de Nestle) 4.4
Lollipop(piruleta) 5.0
Marshmallow(malvavisco) 6.0
Nougat(Turrón) 7.0
Oreo 8.0
Tabla 1. Todas las versiones de Android
Fuente: Elaboración propia
En la tabla 1 podemos ver las distintas versiones de
Android desde el año 2008 que se lanzó hasta el mo-
mento, curiosamente desde la versión 5.0 ya no exis-
ten versiones intermedias por lo que podemos desta-
car versiones más estables ya que también a partir de
Lollipop se presentó anualmente.
La versión 8.0 tiene características interesantes las
cuales desarrollaremos posteriormente, tal vez criti-
caremos lo malo o rescataremos lo bueno a nuestro
criterio.
2.2 ¿QUÉ ES ANDROID OREO?
Es la última versión de Android denominado así por
las famosas galletas, esta versión 8.0 se presentó ofi-
cialmente el 21 de agosto de 2017.
“Más inteligente, más rápido, más potente y más dulce
que nunca. La cookie favorita del mundo es u nueva
versión de Android favorita.”(Anónimo, 2017)
Figura 2. Logo oficial de Android Oreo
Fuente: (www.android.com, 2017)
2.3 LAS MEJORES CARACTERÍSTICAS.
•	 Instala aplicaciones desconocidas.
Ya que desaparece la opción ”orígenes des-
conocidos”
•	 Con tan solo mantener presionado
los puntos de notificaciones que figuran so-
bre las apps se pueden ver las notificaciones.
15
Figura 3. Instala aplicaciones desconocidas Fuente:
(Anónimo, 2017)
•	 Iconos adaptativos: se refiere a los
iconos de las aplicaciones que se pueden mo-
dificar de forma redonda, cuadrada bordes
curvas, o mixta una forma intermedia entre
las primeras
•	 La función picture in picture permi-
te navegar y leer mails mientras esta en se-
gundo plano.
Figura 4. PIP
Fuente: (Anónimo, 2017)
•	 Mejora la velocidad de inicio al en-
cender el teléfono.
•	 Canales de notificación nos permi-
tirán personalizar qué tipo de notificación
queremos que nos muestre cada aplicación.
Figura 5. Canales de notificación
Fuente: (Anónimo, 2017)
•	 Cuando se seleccionan textos pre-
sionando la pantalla, el sistema reconocerá la
información y la buscara automáticamente.
•	 Autofill con Google para permitir-
nos autocompletar los datos de inicio de se-
sión (usuario y contraseña) y llenar automá-
ticamente los formularios.
Figura 6. Selector de texto
Fuente: (Herrera, 2017)
•	 Fluid Experience, la misma ha sido
diseñada para establecer 3 niveles de con-
trol de actividad en segundo plano, todo de
acuerdo a si nos hacen llegar notificaciones,
si están brindando información sobre la ubi-
cación y si están realizando actividad de ma-
yor peso pero en segundo plano.
16
Figura 7. Fluid experience.
Fuente: (Herrera, 2017)
•	 Emojis nuevos: se mejoró la reso-
lución y la visualización, aunque pensamos
que esto también depende si estas utilizando
un dispositivo de gama alta o media-baja.
•	 Un gestor de notificaciones deslum-
brante, podemos agrupar las notificaciones
de acuerdo al contacto que ha emitido uno
o varios mensajes. Por ejemplo, si llegas a
recibir 7 mensajes en Telegram y 5 son del
mismo usuario, la interfaz agrupará estos
mensajes para que los mismos se proyecten
juntos y puedan ser mejor observados.
Aunque esta función parece similar a la que se
puede apreciar en la versión de un dispositivo
móvil Sony con Android 7.1.
Figura 8. Notificaciones deslumbrantes.
Fuente: (Herrera, 2017)
•	 Android O podrá activar automáti-
camente el Wi-Fi cuando esté cerca de redes
guardadas.
Figura 9. Red Wi-fi.
Fuente: (Anónimo, 2017)
•	 El Huevo de pascua que sale luego
de presionar varias veces la versión de An-
droid en ajustes del teléfono.
Figura 10. Huevo de pascua
Fuente: (Anónimo, 2017)
Esto es curioso ya que en la anterior versión de
Android 7.0 Nougat no aparece después del logo
ningún mini juego que se acostumbraba a con-
templar en versiones anteriores.
•	 Modificaciones en el panel de no-
tificaciones y configuraciones rápidas (por
ejemplo, el icono para abrir los ajustes ahora
estará en la parte inferior, en vez de la parte
superior). Esto es muy útil cuando usas las
diferentes opciones de configuraciones en tu
dispositivo.
•	 El app de descargas se convierte en
gestor de archivos y funciona como un ad-
ministrador de documentos y archivos. Es
interesante aunque en nuestros dispositivos
tenemos gestores pre instalado que ya no se
usarían frecuentemente.
•	 En las opciones ocultas, es posible
personalizar los botones de navegación de
Android, permitiendo inclinarlos hacia un
17
lado o añadir hasta dos nuevos botones más.
Además, en estas opciones ocultas, es posible
personalizar los atajos de la pantalla de bloqueo.
Creemos que estas opciones solo estarán disponi-
bles e los dispositivos de Google.
•	 En los Google Pixel, los botones
de navegación se oscurecen cuando abres el
cajón de apps. También tienes la opción de
cambiar el tema del celular.
2.4 DISPOSITIVOS COMPATIBLES.
Los usuarios que poseen dispositivos con la antigua
versión Nougat seguro esperan que lleguen las respec-
tivas actualizaciones. Por experiencia sabemos que si
estos dispositivos fueron actualizados anteriormente
no volverán hacerlo 2 veces aunque esperamos que no
ocurra esto. Por ejemplo el Sony Xperia Z5 ya se ac-
tualizo de la versión 6.0 a la versión 7.0, pero creemos
que la versión Oreo puede llegar ya que se confirmó
dispositivos de gama media como los de la familia XA
que contaría con Oreo, entonces el Z5 puede soportar
aunque la memoria Rom bajaría un poco, lo que ocu-
rre en diferentes marcas luego de una actualización.
Existes aficionados que tienen dispositivos que no
serán compatibles con la versión Oreo, seguramente
recurrirán a las “Rom’s cocinadas” como se los de-
nomina.
La siguiente tabla detalla los dispositivos compatibles.
Fabricante Móviles
Google Google Pixel / Pixel
XL, Nexus 5X, Nex-
us 6P, Nexus Player,
Pixel C
Nokia Nokia 3, Nokia 5,
Nokia 6, Nokia 8
OnePlus OnePlus 3, OnePlus
3T, onePlus 5
HTC HTC U Ultra, HTC
10
LG LG G6, LG G6+, LG
Q6, LG V20 y LG G5
Samsung Galaxy C7 Pro, Gal-
axy C9 Pro, Galaxy
Tab S3, Galaxy J5
2017, Galaxy J7 2017
y J7 Prime, Galaxy
A32017, A5 2017, A7
2017, S7, S7 edge y
S7 Active, S8 y S8+,
Galaxy Note FE,
Sony Sony Xperia XA1,
Sony Xperia XA1 Ul-
tra, Sony Xperia X,
X Compact, X Per-
formance, Sony Xpe-
ria XZ, XZs, Sony
Xperia XZ Premium,
Sony Xperia L1
Lenovo Moto Z2 Force, Moto
Z2 Play, Moto G5 y
Moto G5 Plus, Moto
G5S y Moto G5S
Plus, Moto Z, Moto
Z Play.
Huawei y Honor Huawei Mate 9, Hua-
wei Mate 9 Pro, Hua-
wei Mate 9 Porsche
Design, Huawei P10
Xiaomi Xiaomi Mi 6, Mi Max
2,Mi 5x, Xiaomi Mi
5C y familia Redmi
Tabla 2. Dispositivos compatibles
Fuente:(Anónimo, 2017)
En la tabla 2 se muestra los dispositivos que están con-
firmados para su actualización, los que se espera que
se actualizarán o tal vez ha habido alguna filtración de
información en las páginas oficiales de los fabricantes.
También tenemos entendido que Google ha informa-
do que compañías (fabricantes) como: HMD Global
18
(Nokia), Huawei, HTC, Kyocera, LG, Motorola, Sam-
sung, Sharp y Sony ya están trabajando con la versión
previa de Android Oreo y aseguran que las actualiza-
ciones para algunos de sus dispositivos llegarán hacia
finales de año.
Si se quiere más detalles actualizados tendrían que
ingresar a las páginas oficiales de cada compañía se-
guramente allí se tiene información más precisa de los
dispositivos.
Un dato más que sabemos es que el código fuente de
Android oreo ya está disponible en el Android Open
Source Project (AOSP) para todos los interesados. En-
tonces ya saldrán Rom’s no oficiales para su descarga
y posterior uso, para los que no tienen idea de esto, se
requiere que los dispositivos estén “roteados” como se
dice por costumbre (súper usuario), los desarrollado-
res más conocidos pertenecen a la familia de Cyano-
gen Mod que ya son expertos en el tema.
3. CONCLUSIONES
En conclusión podemos decir: Android Oreo como to-
das las versiones siempre se espera algo destacable y
algo para mejorar en la siguiente versión, ya que ape-
nas el 21 de agosto se presentó dicha versión y las ac-
tualizaciones todavía tardaran un poco en llegar a las
marcas más vendidas, se harán esperar estas opiniones
de los usuarios que lo manifestarán seguramente en
las redes sociales, blogs o páginas de la web.
En cuanto a las características que presentamos que
solo fueron las que nos pareció interesante, tenemos
entendido que son 27 novedades en total, no podemos
afirmar que todas estas nuevas funciones se puedan
usar en los diferentes terminales, aunque sí es seguro
que lo hacen en los dispositivos de Google como los
Pixel o Nexus.
Sobre los dispositivos que se actualizarán esperemos
que todas las novedades se puedan utilizar en los di-
ferentes modelos de cada compañía aunque no esta-
mos seguros de ello ya que cada compañía modifica
su sistema y la respectiva versión acorde a las carac-
terísticas que posee cada dispositivo, también hoy en
día se puede ver que terminales de gama media-alta se
actualizan a las últimas versiones de Android.
4. REFERENCIAS BIBLIOGRÁFICAS
Álvarez, R. (2017).Android oreo la versión 8.0 es ofi-
cial. Recuperado de https://www.xataka.com/
moviles/android-oreo-la-version-8-0-del-siste-
ma-operativo-movil-de-google-es-oficial
Anónimo. (2017). Android. Recuperado de https://
www.android.com
Anónimo. (2017). Android 8.0 Oreo ya es oficial: es-
tas son sus 23 novedades más destacadas. Re-
cuperado de https://www.xatakandroid.com/
Anónimo. (2017).Android 8.0 Oreo: nuevas funcio-
nes, más seguridad y mejor gestión de batería.
Recuperado de
http://www.eleconomista.es/tecnologia/noti-
cias/8563776/08/17/Android-80-Oreo-nue-
vas-funciones-mas-seguridad-y-mejor-ges-
tion-de-bateria.html.
Anónimo. (2017) Cómo es Android Oreo y cuándo lle-
gará a tu celular. Recuperado de http://www.
bbc.com/mundo/noticias-41011752
García, M. (2012).La historia del logo de Android.
Recuperado de http://www.brandemia.org/la-
historia-del-logo-de-android
Garzon, J. (2016). Android 8.0 Oreo ofrece más flui-
dez, actualizaciones más rápidas y otras nove-
dades. Recuperado de: https://www.cnet.com/
es/analisis/android-o/primer-vistazo/
Herrera, N. (2017).Android 8.0 Oreo: Todas sus ca-
racterísticas y novedades. Recuperado de ht-
tps://androidphoria.com/novedades/caracristi-
cas-novedades-requisitos-android-8-0-oreo
Jiménez, E. (2017).¿Paga Oreo para ser el nombre
de Android 8.0?Recuperado de https://an-
droidayuda.com/2017/08/22/paga-oreo-nom-
bre-android-8-0/
Nieto, A. (2011). ¿Qué es Android? Recuperado de
https://www.xatakandroid.com/sistema-opera-
tivo/que-es-android
Pérez, D. (2017). Todos los pequeños detalles y fun-
ciones de Android 8.0 Oreo. Recuperado de ht-
tps://elandroidelibre.elespanol.com/2017/08/
detalles-y-funciones-de-android-8-oreo.html.
Vayo, A. (2017). Android 8.0: las características
del nuevo sistema empiezan a filtrarse. Re-
cuperado de https://elandroidelibre.elespanol.
com/2017/03/android-8-oreo-caracteristicas
rumores.html.
19
APLICACION DE IMÁGENES 2D, 3D Y HOLOGRAMAS EN CAMPOS DEL
CONOCIMIENTO
Alvaro L. Muruchi, Edison Clavijo, Leandro Góngora
muruchi-alvaro123@outlook.com, crisgongor7@gmail.com, edi_clavijo756@hotmail.com
Universidad Mayor De San Andrés
Carerra De Informática
RESUMEN
La Computación Gráfica nace con SAGE, en 1955 la
cual es una máquina que se creó durante la Guerra
Fría por el ejército de los Estados Unidos para
rastrear a las naves aéreas. Hoy es una rama de la
ciencia de la computación, que estudia al conjunto
de técnicas que nos permiten la representación de los
objetos mediante el uso de computadoras y a su vez
herramientas o aplicaciones que se relacionan con el
campo de la geometría, la térmica, la óptica, etc. La
computación gráfica también comprende una gran
variedad de técnicas que pueden ser agrupadas de
acuerdo al número de dimensiones que se utilizan en la
representación del modelo grafico a visualizar, ya que
este puede ser en 2D, 3D y también un Holograma.
Las imágenes bidimensionales y tridimensionales
ayudan a proporcionar escenas vivas y naturales
como si los ambientes de la simulación realmente
existieran, haciéndose herramientas valiosas para
muchas aplicaciones como la visualización médica,
investigación científica, entretenimiento, arquitectura,
anuncios publicitarios, computación tridimensional,
sistemas de realidad virtual, área industrial y militar
entre otros.
PALABRAS CLAVE: Computación gráfica, Modelo
geométrico, Holografía, AutoCAD.
1. INTRODUCCIÓN
Durante el transcurso del tiempo el hombre ha estu-
diado los fenómenos fisiológicos y psicológicos que
le permiten capturar y procesar el mundo que le rodea;
Hace varios siglos se originó el desarrollo de diversos
métodos artísticos para plasmar distintos tipo de esce-
nas que ha vivido el hombre, con los avances tecnoló-
gicos, buscamos mejorar cada vez más ese método de
plasmar escenas como se hacía en siglos pasados, ya
sea para atraer al espectador en un mundo tridimen-
sional o en su propósito transportarlo a un lugar más
allá de su imaginación, como también usarlo como he-
rramienta para un buen aprendizaje mediante diversas
formas de proyectarse una imagen.
Este trabajo tiene con finalidad dar una descripción
yuna mirada a lo que se conoce como el campo de
la informática visual, donde se utilizan computadoras
para generar imágenes visuales y espaciales del mun-
do real así también en el ámbito profesional y de la
vida diaria para aquellas personas interesadas en la
vida tecnológica más allá de lo que se percibe a pri-
mera vista.
2. DESARROLLO
2.1.	HISTORIA DE LA COMPUTACIÓN GRÁ-
FICA
La Computación Gráfica nace con SAGE (Semi-Au-
tomatic Ground Environment), en 1955 la cual es una
máquina que se creó durante la Guerra Fría por el
ejército de los Estados Unidos para rastrear a las naves
aéreasqueingresabanalespacioaéreonorteamericano.
Esta máquina se integró a los sistemas de radar de esa
época para así proporcionar la primera aplicación de
computación gráfica interactiva.
Según Mejia A. (2013) afirma “El uso de gráficos de
ordenador se puede remontar tan atrás como 1940,
cuando Jay Forrester en el MIT un equipo diseñado
para la formación de nuevos pilotos. La computadora
digital fue elegida como el instrumento ideal. Debi-
do a su adaptabilidad y festividad con que la maquina
puede ser programada.” (Mejia Arpushana, 2013)
2.1.1. COMPUTACIÓN GRÁFICA
Según Santos, (2009) que La computación gráfica es
una rama de la ciencia de la computación, que estudia
al conjunto de técnicas que nos permiten la represen-
tación de los objetos mediante el uso de computadoras
y a su vez herramientas o aplicaciones que se rela-
cionan con el campo de la geometría, la térmica, la
óptica, etc. Ya sea para representar imágenes visuales
como también espaciales del mundo real.
Según Rivara, (2010), que una de las tecnologías que
nos permiten dibujar primitivas cosas como ser pun-
tos, líneas, polígonos, curvas, texturas, iluminación,
etc. es Direct 3D así también nos permite realizar un
conjunto de operaciones gráficas. “
20
Según Suares, (2013) afirma “La computación grafica
es el arte y la ciencia de comunicar información usan-
do imágenes que son generadas y presentadas a través
de la computación, se dedica al estudio y desarrollo de
procesos que permitan el tratamiento automático de la
información gráfica.” (Suares , 2013)
2.1.2.	 REPRESENTACIÓN 2D Y 3D
En la actualidad, los gráficos que se generan mediante
la computadora pueden ser utilizados a una gran va-
riedad de aplicaciones, como en interfaces gráficas
de usuario, tipografía digital, paseos arquitectónicos
virtuales, aplicaciones médicas y juegos de vídeo, etc.
La computación gráfica comprende una gran variedad
de técnicas que pueden ser agrupadas de acuerdo al
número de dimensiones que se utilizan en la repre-
sentación del modelo grafico a visualizar, ya que este
puede ser en 2D, 3D y también un Holograma.
Según Suares , (2013) afirma” Actualmente en todas
las áreas es posible aplicar gráficas por computadora
con algún objetivo particular o genérico, por ello se ha
generalizado la utilización de gráficas por computado-
ra. De igual modo las gráficas por computadora se uti-
lizan de manera rutinaria en diversas áreas facilitando
la expresión de alguna concepto, idea o problema, así
como plantear la solución, tales como en la ciencia,
ingeniería, empresas, industria, gobierno, arte, entre-
tenimiento, publicidad, educación, capacitación y pre-
sentaciones gráficas.” (Suares , 2013)
2.1.3.	 Computación gráfica 2D
Según Vidal, (2012) afirma, que” corresponde al con-
junto de técnicas utilizadas que tienen como objeto
la generación de una imagen digital a partir de varios
modelos geométricos bidimensionales, y que estas
técnicas son principalmente empleadas en interfaces
gráficas de usuario y en aplicaciones desarrolladas a
partir de tecnologías de impresión y dibujo, como ti-
pografía, cartografía y dibujo técnico, entre otras; El
origen de las mismas se remonta a la década de los
50’s en la que aparecieron dispositivos con soporte
para gráficos vectoriales.”
Según Charalambos J. (2016) afirma, que” Los gráfi-
cos 2D por computadora se han iniciado en la década
de 1950, basándose en dispositivos de gráficos vec-
toriales. Éstos fueron suplantados en gran parte por
dispositivos basados en gráficos raster en las décadas
siguientes. El lenguaje PostScript y el protocolo
de sistema de ventanas X fueron piezas claves en la
evolución histórica del campo.” ( Charalambos, 2016)
2.1.4.	 Computación gráfica 3D
Según Calderón, (2011) afirma que “la computación
gráfica en 3D trata sobre la forma de reemplazar una
imagen bidimensional a partir de modelos geométri-
cos tridimensionales. De acuerdo con la complejidad
que se genera por medio de un proceso de cálculo ma-
temático sobre formas geométricas 3D originadas en
un ordenador.
El estudio de las condiciones fisiológicas del ser hu-
mano le generó diversas propuestas de fotografía con
el que lograron proyectar el volumen de un objeto o
incluso escenas completas. Hoy en día algunos con-
ceptos de este tipo de fotografía aún son utilizados por
los científicos y artistas de todo el mundo, adaptándo-
los de buena forma a la tecnología de nuestro tiempo,
aunque estas aún presentan algunos problemas para
lograr un efecto total. Las visualizaciones estereos-
cópicas, Basadas en paralaje binocular pueden causar
confusión visual, fatiga y dolor de cabeza en tiempos
de exposición prolongados inducidos por las incon-
sistencias en la información visual de la imagen 3D.
Estas visualizaciones de volumen, Generan imágenes
tridimensionales basadas en puntos de luz organiza-
dos en un espacio 3D por medio de un escaneo óptico
constituido por componentes mecánicos, pero no pue-
den proveer imágenes muy convincentes debido a que
se hace una reproducción de color limitada y pobre
debido a oclusiones.”
“Un gráfico 3D difiere de uno bidimensional princi-
palmente por la forma en que ha sido generado. Este
tipo de gráficos se originan mediante un proceso de
cálculos matemáticos sobre entidades geométricas
tridimensionales producidas en un ordenador, y cuyo
Figura 1. Comparación de una imagen realista con una
imagen vectorial en 2D,
Fuente: Charalambos J. (2016).
21
propósito es conseguir una proyección visual en dos
dimensiones para ser mostrada en una pantalla o im-
presa en papel.” (Tran, 2017)
Figur 2. primera animacion 3D(1972)
Fuente: Miguel P.(2016)
2.1.5.	 HOLOGRAFIA
La holografía se puede describir en pocas palabras
como un sistema de fotografías tridimensionales, sin
el uso de lentes para formar la imagen.
El holograma hace referencia también a un tipo de fe-
nómeno del ámbito visual o de la fotografía mediante
el cual el tratamiento que recibe una imagen respecto
de la luz hace que parezca tridimensional por contar
con varios planos al mismo tiempo. La holografía es
una técnica de la fotografía que se interesa justamente
por lograr este efecto y que es particularmente común
hoy en día en lo que respecta a la creación de imáge-
nes tridimensionales para el cine o el video.
Figura 3. Proyección de hologramas, facilitando el aprendi-
zaje de los alumnos.
Fuente: Bejerano, (2013).
Según Guerra, (2013) afirma “La holografía es una
técnica avanzada de fotografía, que consiste en crear
imágenes tridimensionales. Para esto se utiliza un
rayo láser, que graba microscópicamente una película
fotosensible. Ésta, (…), proyecta una imagen en tres
dimensiones. La holografía fue inventada en el año
1947 por el físico húngaro Dennis Gabor, (…).” (Gue-
rra, 2013)
2.2.	APLICACIONES DE LA COMPUTACIÓN
GRÁFICA
Actualmente existen muchas aplicaciones, donde se
desarrolla la computación grafica ya sea en campos
como: la ingeniería, investigación científica y demás
que requieren una gran cantidad de recursos compu-
tacionales. La Computación Gráfica también cubre
áreas muy diversas, que abarcan desde la visualiza-
ción científica, hasta el arte y el tratamiento fotográ-
fico.
•	Interfaces Gráficas de Usuario
•	Medicina
•	Diseño Asistido por Computadora (CAD:
•	Multimedios (educativos)
2.3.	IMPLEMENTACION DE LAS GRÁFICAS
2D 3D y HOLOGRAMAS EN DIFERENTES
ÁREAS
El Beneficio más grande que aporta la implementa-
ción de gráficos en campos del conocimiento se en-
cuentra en el ambiente educativo, ya que mediante
una imagen podemos representar una gran cantidad de
información a quienes requieran aprender de ello. Un
ejemplo muy claro seria para la generación de labo-
ratorios virtuales, simuladores de vuelos para pilotos,
medicina, etc.
Según Turmero, (2014) Afirma “La computación grá-
fica es ahora una parte importante de la industria del
entretenimiento. La industria del entretenimiento jue-
ga muchos otros roles importantes en el campo de la
computación gráfica.”
2.3.1. Geografía
Es usado para representar en 3D zonas geográficas e
inclusive réplicas de ciudades con la posibilidad de
explorarlas como si el usuario estuviera caminando en
dichos lugares. En este campo tenemos al llamado sis-
tema de información geográfica también conocido
con los acrónimos SIG el cual es un conjunto de
herramientas que relaciona diversos componentes que
permiten la organización, análisis y modelización de
grandes cantidades de datos procedentes del mundo
real que facilita la toma de decisiones de una manera
más eficaz en su trabajo.
Según Wikipedia, (2017) afirma “En el sentido más
estricto, es cualquier sistema de información capaz
de integrar, almacenar, editar, analizar, compartir y
mostrar la información geográficamente referenciada.
En un sentido más genérico, los SIG son herramien-
22
tas que permiten a los usuarios crear consultas inte-
ractivas, analizar la información espacial, editar da-
tos, mapas y presentar los resultados de todas estas
operaciones.” (Wikipedia, 2017)
2.3.2. Animación de personajes
“En personajes humanos y animales, muchas partes
del modelo de su esqueleto, corresponden a la ubica-
ción real de los huesos. Esto se ha empleado para la
realización de películas animadas. Animaciones 2D:
Es una forma de animación que representa elementos
que se despliegan en un sistema de coordenadas de
dos dimensiones.” (Plaja, 2014)
2.3.3. Diseño Industrial
En el campo de la industria se esquematizan piezas
industriales y máquinas más complejas para su fabri-
cación.
Según Bonilla , (2003) afirma “Es posible encontrar
en el mercado aplicaciones específicas para un cam-
po concreto junto con aplicaciones de tipo general. Se
trata básicamente de editores de modelos geométri-
cos, sobre los que se pueden acoplar módulos de simu-
lación o cálculo específicos para un campo concreto.
Este último es el caso de AUTOCAD, 3D-Studio y
MICROSTATION.” (Bonilla , 2003)
Figura 4: Trabajo de Diseñadores industriales
Fuente: Magnus, (2012).
2.3.4. Aeronáutica
“Los simuladores de vuelo son sistemas que son desa-
rrollados tanto para la educación como para el entrete-
nimiento. Intentan replicar la experiencia de volar una
aeronave, de la forma más precisa y realista posible.
Existen réplicas de cabinas en tamaño real montadas
en accionado res hidráulicos o electromecánicos con-
trolados por sistemas computarizados” (Suares, 2013).
2.3.5. Videojuegos
En la década de los ochenta los videojuegos tenían in-
terfaces graficas que se agrupaban por áreas cada una
de ocho por ocho pixeles cada una.
Figura 5: Diseño y Creación de Videojuegos a partir
de modelos 2D y 3D,
Fuente: Navarra, (2017).
Según Zahumenszky, (2107) Afirma “Finalmente, los
desarrolladores de aquella época hacían uso intensivo
de una técnica llamada Sprites que permitía introducir
elementos fijos en la pantalla activando una serie de
píxeles. Esta técnica se usó mucho para generar, por
ejemplo, escenarios estáticos en videojuegos. El pro-
pio Mario de la NES estaba compuesto de cuatro de
estos sprites.
Hoy se fabrican los videojuegos con gráficas cada vez
más realistas una de las aplicaciones más frecuentes
es Unity 3D.”
2.3.6. Arquitectura
Se usa la computación gráfica en esta área para brin-
dar soluciones gráficas a estudios de arquitectura, apo-
yo a grupos de desarrollo inmobiliario y particulares
que requieran dichos servicios.
Según Lambach, (2001) Afirma” Sin embargo, son
relativamente pocos los arquitectos y diseñadores que
se animan a embarcarse en la generación de esos in-
sumos, que, paradójicamente, suelen ser muy impor-
tantes a la hora de presentar y vender un proyecto.” (
Lambach, 2001)
2.3.7. Medicina
En este campo la implementación de gráficos 3D apo-
ya de gran manera en el estudio médico donde por me-
dio de estas animaciones se pueden observar células,
tejidos, sistemas, anatomía, fisiología, neurología. Lo
que también les llevo a relacionarse con la impresión
en 3D.
Según Vazhnov, (2017) afirma “El uso de impresión
3D en prótesis está avanzando rápido. En el año 2012
por primera vez hicieron un trasplante de una mandí-
bula impresa en titanio. Hoy, trasplantes de este tipo
ya no son una novedad y existen muchos casos exi-
tosos de trasplantes de caderas, mandíbulas y otras
23
partes del cuerpo. Más importante aún es que desde
que aparecieron las impresoras 3D de bajo costo, las
personas fuera del campo médico empezaron a expe-
rimentar e inventar sus propias soluciones.” (Vazhnov,
2017)
Figura 6. Aplicación de imágenes 3D en el campo de la
medicina para su mejor estudio
Fuente: (Suares, 2013).
2.3.8. Deportes
En este campo con la de gráficos en 3D se puede hacer
un análisis del desempeño de los atletas.
Según Sierra, (2017) afirma que “La tecnología está
muy presente en el mundo del deporte. El ojo de hal-
cón, por ejemplo, es una técnica valiosísima en el te-
nis. Gracias a estas cámaras, que generan un mapa 3D
de la pista y recrean la trayectoria de la bola, ahora
es más fácil que nunca cantar in o out. La idea sur-
gió al reflexionar sobre el hecho de que en el fútbol
los jugadores no siempre dicen la verdad para jugar el
máximo posible. Esta aplicación es capaz de encon-
trar asimetrías térmicas, las cuales indican sobrecar-
gas o riesgo de lesión.”
2.3.9. Antropología
En este campo lo que más se utilizan son los dibujos
ya que los rasgos, atributos e indicadores selecciona-
dos se transforman una vez combinados en categorías
discriminantes, que le sirven de guía y razonador ana-
lítico a quien los utilice. Con esto se intenta dar a
conocer las construcciones más sorprendentes de la
humanidad.
Según Garavaglia, (2015) afirma “El dibujo tiene la
ventaja de lograr una comunión íntima del investiga-
dor con el objeto. Esto implica un conocimiento más
detallado que a veces comporta verdaderos descubri-
mientos y, por eso mismo, contribuirá también al de-
sarrollo del cuestionario (…) pasando, de este modo,
de un Lenguaje Natural a un Lenguaje Descriptivo,
que permite explicitar las convenciones utilizadas sea
cual fuere la unidad de referencia empírica.” (Garava-
glia, 2015
)3. CONCLUSIONES
Los gráficos en 2D, 3D y Hologramas pueden servir
en muchos campos del conocimiento ya sea en pro-
ductos electrónicos, ropa, alimentos que es lo que más
consumen las personas de nuestra generación.
Este campo de la computación grafica es una vía muy
eficaz para la promoción de productos ya que estos
sistemas pueden ser adquiridos fácilmente por nego-
cios transnacionales y locales, además de tener un
gran rendimiento en la difusión de la misma en dis-
tintas redes.
Al tener un conocimiento solido sobre estos gráficos
la sociedad aceptaría de forma muy amable la imple-
mentación de estos sistemas porque ayuda mucho en
cuanto a educación nos referimos ya que es muy di-
dáctico y facilita el aprendizaje.
4. REFERENCIAS BIBLIOGRÁFICAS
Bejerano, P. G. (17 de Julio de 2013). Blogthinkbig.
com. Obtenido de Hologramas gigantes con
fines educacionales: https://blogthinkbig.
com/hologramas-gigantes-educacion
Bonilla , A. (2003). GUIA TECNOPYME. Fase II. .
Zamudio.
Calderón, J. (2011). Proyector de Imágenes virtuales
en dos y tres. San Francisco.
Charalambos, J. (18 de Enero de 2016). Wikipedia.
Obtenido de Computación gráfica 2D: ht-
tps://es.wikipedia.org/wiki/Computaci%-
C3%B3n_gr%C3%A1fica_2D
Guzman, D. (15 de Septiembre de 2017). Wikipedia.
Obtenido de Gráfico vectorial: https://es.wi-
kipedia.org/wiki/Gr%C3%A1fico_vectorial
Garavaglia, M. (09 de Junio de 2015). NAYA. Obteni-
do de Sobre el uso de imágenes gráficas en la
investigación antropológica. Un acercamien-
to a la Antropología Visual.: http://www.
equiponaya.com.ar/congreso/ponencia1-19.
htm
Guerra, N. (15 de Noviembre de 2013). monografias.
com. Obtenido de La holografía: http://www.
monografias.com/trabajos98/holografia/ho-
lografia.shtml#ixzz4wH4YsxOC
24
Lambach, G. (2001). GRÁFICOS 2D Y 3D CON
SOFTWARE GRATUITO. Obtenido de
http://www.sau.org.uy/content/2d3d.pdf
Magnus. (12 de octubre de 2012). wikimedia . Ob-
tenido de Diseñadores Industriales: https://
es.wikipedia.org/wiki/Dise%C3%B1o_in-
dustrial#/media/File:1961_AMC_PRfoto_
Designers.jpg
Mejia, C. (20 de Febrero de 2013). Historia de la com-
putacion grafica. universidad popular del ce-
sar, pag-2: trabajo monografico.
Miguel, P. (08 de junio de 2016). Wikipedia. Obteni-
do de Primera animación 3D en el mundo:
https://es.wikipedia.org/wiki/Gr%C3%A1fi-
cos_3D_por_computadora#/media/File:Pri-
mera_animaci%C3%B3n_3D_en_el_mun-
do.jpg
Navarra. (25 de octubre de 2017). creanavarra. Obte-
nido de CARRERA OFICIAL EN DISEÑO
Y CREACIÓN DE: http://www.creanavarra.
es/carreras/diseno-y-creacion-de-videojue-
gos/
Rivara, M. (2010). Downloads. Obtenido de Compu-
tación Gráfica: file:///C:/Users/casa/Down-
loads/Introduccion_CG_2010%20(2).pdf
Santos, A. (15 de AGOSTO de 2009). COMPUTA-
CIÓN GRÁFICA. Obtenido de http://com-
putaciongrafic.blogspot.com/2009/08/defini-
cion-de-computacion-grafica.html
Sierra, M. M. (22 de Febrero de 2017). univer-
sia.es. Obtenido de 3 avances tecno-
lógicos aplicados al deporte: http://
noticias.universia.es/ciencia-tecnologia/noti-
cia/2017/02/22/1149774/3-avances-tecnolo-
gicos-aplicados-deporte.html
Suares , A. (05 de septiembre de 2013). Graficación.
Obtenido de Aplicaciones de la Computa-
ción Gráfica: http://graficacionito.blogs-
pot.com/2013/09/11-aplicaciones-grafi-
cas-por-computadora.html
Tran, G. (10 de Agosto de 2017). Wikipedia. Obte-
nido de Gráficos 3D por computadora: ht-
tps://es.wikipedia.org/wiki/Gr%C3%A1fi-
cos_3D_por_computadora
Turmero, P. (20 de Octubre de 2014). monografias.
com. Obtenido de La computación gráfica
y sus aplicaciones: http://www.monografias.
com/trabajos105/graficacion-computadora/
graficacion-computadora.shtml
Vazhnov, A. (2017). BAIKAL INSTITUTO. Obteni-
do de IMPRESION 3D: http://institutobai-
kal.com/libros/impresion-3d/mover-mate-
ria-en-el-espacio/
Vidal Ostos, A. (28 de Mayo de 2012). Computación
Grafica. Obtenido de Computación gráfi-
ca 2D y 3D: http://compgrafusm.blogspot.
com/2012/05/normal-0-21-false-false-false-
es-co-x_07.html
Wikipedia. (16 de Octubre de 2017). Wikipedia.
Obtenido de https://es.wikipedia.org/wiki/
Sistema_de_informaci%C3%B3n_geogr%-
C3%A1fica
Zahumenszky,C.(2107).GIZMODO. ObtenidodeAsí
funcionaban los gráficos de tus juegos favo-
ritos en los años 80: http://es.gizmodo.com/
asi-funcionaban-los-graficos-de-tus-jue-
gos-favoritos-en-1725014252
25
BIOIMPRESIÓN 3D: LO QUE HAY Y LO QUE VENDRÁ
Choque Callizaya Gabriel Alejandro, Javieri Vino Douglas Cristhian, Villegas Yujra Pablo
lgabrielalejandro6480@gmail.com, douvan.22@gmail.com, villegas.yujra.pablo@gmail.com
Universidad Mayor de San Andrés
Carrera de Informática
Gramática Española
RESUMEN
La inteligencia artificial ha sido creada para diseñar
maquinas inteligentes, chips artificiales que son el ce-
rebro de la máquina, el que logra que piense y hablen
por si solos, La tecnología hoy en día tiene que es-
tar más atenta en las innovaciones que el ser humano
logra y más en el campo de la medicina, un equipo
experto liderados por Anthony Átala lograron impri-
mir órganos humanos gracias a la impresora 3D, sin
duda es una innovación tecnológica que esta revolu-
cionado el mundo entero. El implante de órganos y
prótesis avanzadas hoy puede ser más fácil de con-
seguirlas gracias las impresiones humanas, algo que
podría cambiar el mundo y sin duda cambiar las vidas
de muchas personas, un gran aporte al mundo de la
tecnología y de la medicina.
Palabras clave: Célula, tecnología, órganos, medici-
na, bioimpresion.
ABSTRACT
Artificial intelligence has been created to design in-
telligent machines, artificial chips that are the brain
of the machine that makes them think and speak for
themselves, Technology today has to be more atten-
tive in the innovations that the human being achieves
and more in the field of medicine, an expert team led
by Anthony Átala were able to print human organs
thanks to the 3D printer, it is certainly a technological
innovation that revolutionized the whole world. The
implantation of organs and advanced prostheses today
may be easier to obtain thanks to human impressions,
something that could change the world and without a
doubt change the lives of many people, a great contri-
bution to the world of technology and medicine.
Keywords: Cell, technology, organs, medicine, bio-
impresion.
1. INTRODUCCIÓN
El uso de la tecnología en la medicina apunta muy alto
y da un gran paso con las impresoras 3D,
Ofrece un espacio a la bioimpresion para producir mo-
delos físicos, el equipo de científicos y médicos de la
Wake forest dirigidos por el señor Anthony Átala lo-
graron crear la maquina ITOP quien logra imprimir de
manera excepcional órganos, huesos y tejidos hechos
con materiales biológicos, papeles creados para estar
dentro de una persona y que no cause ningún efecto
secundario.Anthony abrió primer laboratorio comer-
cial relacionado con la industria el organovo creando
así nuevos modelos de bioimpresoras dando a conocer
nuevas innovaciones de artefactos muy utilizados en
la sociedad y requeridas por muchas personas. An-
thony dio un gran salto al utilizar la bioimpresión en
seres vivos implantados órganos y brindando prótesis
personas, aunque la bioimpresion no es muy conocida
por falta de información e entendimiento es una gran
invención que esta revolucionado el mundo entero.
2. DESARROLLO
La bioimpresión, es el proceso de creación de estruc-
turas celulares gracias al uso de una impresora 3D es-
pecializada, esto permite el futuro desarrollo de estas
células en un órgano funcional.
La bioimpresión es uno de los desarrollos de la
industria 3D que más crecimiento e innovaciones ha
tenido en los últimos años, hasta ahora el mercado se
ha centrado principalmente en Norteamérica, pero hay
muchas empresas y universidades en el mundo que
están trabajando en este campo. Una de las grandes
posibilidades de esta tecnología, y que esperan
conseguir todos los grandes actores de la industria,
es el desarrollo de órganos impresos en 3D creados
a partir de las células del paciente, lo que aumentaría
considerablemente el éxito de cualquier trasplante.
El primer desarrollo de la bioimpresión se remonta a
1988 cuando el Dr. Robert J. Klebe de la Universidad
de Texas presentó su proceso de Cytoscribing, un mé-
todo de micro posicionamiento celular para construir
tejidos sintéticos de dos y tres dimensiones utilizando
una impresora de inyección de tinta común. Siguiendo
los desarrollos de Klebe, en 2002 el profesor Anthony
Atala de Wake ForestUniversity creó el primer riñón
a pequeña escala utilizando una técnica de bioimpre-
sión.
26
En 2010 llegó Organovo, el primer laboratorio comer-
cial relacionado con la industria, desde sus inicios esta
empresa comenzó a trabajar con Invetech, para desa-
rrollar una de las primeras bioimpresoras del mercado,
la NovoGen MMX. Desde entonces, Organovo se ha
posicionado como el líder de la industria, y según va-
rios estudios todo parece indicar que lo seguirá siendo
hasta 2022. Sólo en los últimos años ha anunciado que
ha comenzado el desarrollo del tejido óseo y ha logra-
do crear tejido hepático trasplantable.
Figura1. Huesos impresos en 3D
Fuente:(Klebe, 1988)
2.1 TÉCNICAS DE BIOIMPRESIÓN
Aunque se hayan conseguido grandes avances dentro
de la industria, no es necesario ser experto para darnos
cuenta que la industria aún está dando sus primeros
pasos, conseguir imprimir órganos humanos funcio-
nales no es una tarea fácil. Actualmente han consegui-
do desarrollar cinco principales técnicas de bioimpre
sión con diferentes posibilidades:
2.1.1 BIOIMPRESIÓN DE INYECCIÓN DE TIN-
TA
Los científicos han hecho grandes avances en el pa-
trón de moléculas, células y órganos con la impresión
de inyección de tinta. Moléculas como el ADN se ha
duplicado con éxito, lo que facilita el estudio de los
problemas de cáncer y su tratamiento. Células que
ayudan al cáncer de mama también puede ser impre-
sas y conservar sus funciones, con buenas perspecti-
vas para la creación de estructuras de tejidos vivos.
Organovo utiliza la impresión por inyección de tin-
ta para crear tejidos humanos funcionales. Específi-
camente, están interesados en reproducir tejido del
hígado humano. Lo que Organovo intenta hacer es
repare alguna parte dañada del hígado del paciente
mediante la implantación del tejido, esta solución pro-
longaría la vida del órgano hasta que el paciente sea
elegible para un trasplante.
Figura 2. Huesos impresos en 3D
Fuente:(Anónimo, s.f.)
2.1.2 BIOIMPRESIÓN ASISTIDA POR LÁSER
Una fuente láser, una cinta recubierta con materiales
biológicos que se depositan sobre una película y un
receptor. Los rayos láser irradian la cinta, haciendo
que los materiales biológicos líquidos se evaporen y
lleguen al receptor en forma de gotas, éste contiene un
biopolímero que mantiene la adhesión celular y ayuda
a las células a comenzar a crecer. En comparación con
otras tecnologías, la bioimpresión asistida por láser
tiene ventajas únicas, incluyendo un proceso libre de
boquillas, libre de contacto, impresión celular de alta
actividad y alta resolución, control de gotitas de bioin-
tinta y características de impresión precisas.
Figura 3. Huesos impresos en 3D
Fuente:(García, 2016)
2.1.3 ESREOLITOGRAFÍA
La tecnología SLA consiste en la solidificación de un
fotopolímero a través de la iluminación y tiene la ma-
yor precisión de las tecnologías de fabricación aditiva.
Esta puede ser aplicada en bioimpresión imprimien-
do con hidrogeles sensibles a la luz. Esta tecnología
está todavía en desarrollo, ya que además de las venta-
jas de la misma, se relacionan con numerosas restric-
ciones, como la falta de polímeros biocompatibles y
biodegradables, los efectos nocivos y la imposibilidad
de eliminar la estructura portante.
27
2.1.4 BIOIMPRESIÓN POR ONDAS ACÚSTI-
CAS
Utiliza algo que es llamado pinzas acústicas, un dis-
positivo microfluídico donde se pueden manipular
células o partículas individuales, y el uso de ondas
acústicas superficiales. Las ondas se encontrarían a lo
largo de cada uno de los tres ejes. En estos puntos de
encuentro, las ondas formaran un nodo de captura tri-
dimensional. Las células individuales o los conjuntos
completos de ellas se recogen para poder crear patro-
nes 2D y más tarde en 3D. Esta técnica ofrece una ac-
tuación en términos de movimientos precisos de una
manera no invasiva.
Figura 4. Huesos impresos en 3D
Fuente:(BBC Mundo, 2016)
Sin duda son las aplicaciones médicas las que más
sorprenden. Sin embargo, aunque esta tecnología se
está convirtiendo en un tema cotidiano, y especialis-
tas de muchos campos vigilan de cerca su evolución,
todavía hay miles de personas que aún no conocen su
tremendo potencial.
A largo plazo, la impresión 3D podría tener un gran
impacto en el campo de la medicina, donde la extru-
sión de células vivas en lugar de materiales plásticos,
por parte de impresoras 3D, ha dado lugar a la bioim-
presión.
2.2APLICACIONES
2.2.1 AUDÍFONOS
Audífonos existentes en la actualidad se han fabricado
usando impresión 3D.
Figura 5. Audífonos diseñados en 3D
Fuente:(BBC Mundo, 2016)
2.2.2 IMPRESIÓN 3D EN EL DENTISTA
Esta tecnología permite tanto obtener un alineador
dental transparente impreso en 3D para el uso diario,
como implantes, fundas dentales, puentes, y una gran
variedad de aplicaciones dentales.
Figura 6. Huesos impresos en 3D
Fuente:(Sanz, 2015)
En primavera de este mismo año, un paciente en
EEUU se sometió a una cirugía radical, en la cual el
75% de su cráneo fue sustituido por un implante im-
preso en 3D realizado en un material no solo biocom-
patible, sino también semejante al hueso.
2.2.3 PRÓTESIS
La ortopedia avanza hacia una mayor velocidad en los
procesos productivos, y la disminución de los costes.
Esto es especialmente importante cuando hablamos de
ortopedia infantil, pues las piezas han de ser sustitui-
das a medida que los niños crecen, pues se facilita el
proceso de creación de estas piezas, a la misma vez
que disminuye el esfuerzo económico para reempla-
zarlas cuando se necesita
.
Figura 7. Prótesis
Fuente:(Athala, 2014)
2.2.4 OREJA BIÓNICA
Se trata de una oreja totalmente artificial, consistente
en dispositivos electrónicos, alojados en una estructu-
ra biónica: una estructura tridimensional a forma de
28
esqueleto, con células cartilaginosas.
Dan lugar a una oreja completa. Incluso posee una an-
tena extremadamente sensible a las microondas, por
lo que esta oreja podría convertirse en un buscador de
satélites permitiendo al oído humano escuchar la radio
y otras señales electromagnéticas.
 Solo tendríamos que proveerla de los nutrientes ne-
cesarios para sus células (a través de la vasculariza-
ción), y tras ese paso, podríamos crear también la piel
y colocarla sobre una cabeza.
2.2.5 CÉLULAS MADRE
Las células madre embrionarias son aquellas capaces
de mantener su pluripotencial, es decir, de generar
posteriormente las características que las diferencia-
rán en cualquier otro tipo de célula (óseas, cerebrales,
musculares…).
La impresión 3D ha permitido que se produzca raci-
mos de células madre. El método usado es el de la im-
presión basada en válvulas, para mantener estas célu-
las en un alto nivel de viabilidad, y producir esferoides
de un tamaño uniforme con una precisión adecuada.
Figura 9. Imprimiendo células madre
Fuente:(Hospimédica, 2010)
un modo de imprimir vasos sanguíneos, usando azú-
car como “tinta” en una impresora RepRap, los inves-
tigadores comienzan a dejar fluir un líquido a través
de la estructura vascular y las células comienzan a
recibir nutrientes y oxígeno de forma similar a lo que
ocurre en la naturaleza.
Figura 10. Creando vasos sanguíneos
Fuente:(Athala, 2014)
Combinando una impresora 3D y la tecnología que
mencionábamos antes, de células madre inducidas
(iPS) que permiten crear células madre a partir de
células ya diferenciadas. Dado que las células madre
inducidas se desarrollan a partir de las propias células
del paciente, se reducirían las respuestas inmunes al
nuevo tejido. La importancia de este descubrimiento
radica sobre todo en el tratamiento de heridas de gran
extensión, dada la dificultad de encontrar injertos de
piel de ciertos tamaños
.
Figura 11. Una nueva piel, gracias a la
impresión 3D
Fuente:(Chacal, 2013)
2.2.6 ÓRGANOS IMPRESOS EN 3D
La impresión de células de hígado es algo que ya se
está llevando a cabo e investigando para la experimen-
tación con fármacos. Ya van viéndose avances en esa
dirección.
El cirujano Anthony Átala mostró en una charla TED
de 2011, un experimento en el cual se imprimía un
prototipo de riñón humano, capaz de producir una
sustancia semejante a la orina. El Instituto Wake Fo-
resttrabaja de hecho específicamente en la medicina
regenerativa, condiferentes tipos de tejidos: vejiga,
cartílago, tráquea, corazón, etc.
Las nuevas tecnologías también se pueden utilizar in-
29
correctamente, y la bioimpresión no es la excepción.
Si las tecnologías son capaces de desarrollar órganos
o tejidos a medida, también existe la posibilidad de
desarrollar nuevas capacidades humanas, huesos o
pulmones más resistentes que oxigenan de manera
diferente. Algo que puede sonar muy atractivo para
algunas industrias como la militar, que es igualmente
uno de los principales inversores de la industria 3D.
En 2014, el mercado de la bioimpresión se valoró en
487 millones de dólares, y espera crecer un 35,9% en-
tre 2017 y 2022, superando con creces a muchos de
los mercados relacionados con la impresión 3D. Se
espera que los principales actores continúen en Norte-
américa, siendo Estados Unidos el líder del sector, en
Europa serán Reino Unido yAlemania. El crecimiento
del mercado se centrará principalmente en el desarro-
llo de tejidos y órganos, en los próximos años. Con to-
dos estos hechos y el desarrollo médico que se realiza
hoy en día, no exageramos al decir que en una década
será muy posible hablar de órganos humanos impresos
en 3D y su trasplante exitoso, sin duda una de las ma-
yores revoluciones médicas de la historia y algo que
reafirma que la impresión 3D es la Cuarta Revolución
Industrial.
2.3 PROBLEMAS FUTUROS Y ÉTICOS DE
LA BIOIMPRESIÓN
Las técnicas de bioimpresión buscan desarrollar la
llamada “medicina personalizada”, donde los médi-
cos serán capaces de adaptar los tratamientos según
las necesidades de cada paciente, una preocupación
importante dentro de la industria son los costos que
esta idea puede plantear y quién podría tener acceso
a estas ventajas. Otro problema ético relacionado, es
que todavía no es posible probar la eficacia y la segu-
ridad de los tratamientos. Después de analizar las di-
ferentes técnicas utilizadas, conocemos la posibilidad
futura de desarrollar órganos funcionales que puedan
sustituir a un órgano humano, pero aún no es posible
conocer la seguridad del paciente, si su cuerpo acep-
tará el nuevo tejido u órgano creado artificialmente. A
todo esto, añadimos las regulaciones legales que de-
ben ser creadas antes de que estos desarrollos estén
disponibles para un público más amplio.
Y aunque suene un poco a una película de ciencia fic-
ción, las nuevas tecnologías también se pueden utilizar
incorrectamente, y la bioimpresión no es la excepción.
Si las tecnologías son capaces de desarrollar órganos
o tejidos a medida, también existe la posibilidad de
desarrollar nuevas capacidades humanas, huesos o
pulmones más resistentes que oxigenan de manera
diferente. Algo que puede sonar muy atractivo para
algunas industrias como la militar, que es igualmente
uno de los principales inversores de la industria 3D.
En 2014, el mercado de la bioimpresión se valoró en
487 millones de dólares, y espera crecer un 35,9% en-
tre 2017 y 2022, superando con creces a muchos de
los mercados relacionados con la impresión 3D. Se
espera que los principales actores continúen en Norte-
américa, siendo Estados Unidos el líder del sector, en
Europa serán Reino Unido yAlemania. El crecimiento
del mercado se centrará principalmente en el desarro-
llo de tejidos y órganos, en los próximos años.
3. CONCLUSIONES
El futuro del futuro es todavía más insondable, pero
la imaginación ha resultado ser, en muchas ocasiones,
una manera de prever lo que está por llegar. Si es po-
sible crear tejidos humanos y órganos desde el orde-
nador para su aplicación en los pacientes por parte de
un equipo médico en una operación. Una idea imagi-
naria, pero hoy en día ya es una realidad
Sin duda la tecnología ha avanzado bastante y da un
gran salto con la bioimpresión una tecnología que
puede cambiar mucho la sociedad beneficiando en
gran manera con los aparatos que esta nueva tecnolo-
gía puede conseguir.
No todo es bueno en esta tecnología ya que no se da
a conocer muy bien, muchas personas no la conocen
echo que ocasiona una gran desconfianza para esta
tecnología generadas por la falta de interés de dar a
conocer al mundo esta maravillosa tecnología.
Esta tecnología se debe dar a conocerse más en todo el
mundo para que vean la gran capacidad y las maravi-
llas que puede hacer la bioimpresion, mas operaciones
con esta tecnología en humanos ya que hasta hoy en
día hay pocos que gozaron de la bioimpresion y de
todos sus beneficios, esta tecnología si se maneja y se
da conocer bien ayudara a todo el mundo
4.REFERENCIAS BIBLIOGRÁFICAS
Anónimo. (2013).9aplicaciones médicas de la impre-
sión. Recuperado de: http://impresiontresde.
com/9-aplicaciones-medicas-de-la-impre-
sion-3d/
Anónimo. (2017).¿Es labioimpresión el futuro de 	
la medicina a medida?Recuperado de:
30
https://www.3dnatives.com/es/bioimpre-
sion-futuro-medicina-180520172/
Anónimo. (2016). Anthony Atala, el científico pe-
ruano que busca un lugar en la historia de
la medicina con una impresora. Recupe-
rado de:http://www.bbc.com/mundo/noti-
cias/2016/03/160315_atala_impresora_orga-
nos_am
Anónimo. (2016). Órganos fabricados con
impresoras 3D más resistentes. Re-
cuperado de: http://elmundo .es/salu-
d/2016/02/15/56c1f71322601d12128b4582.
html
Anónimo. (2013). Bio-impresión. La Impresión 3D de
Órganos Humanos. Recuperado de: https://
blog.cerebrodigital.org/impresion-3d-de-or-
ganos/
De la Nuez, D. (2017). Medicina regenerativa: im-
presión de órganos 3D. Recuperado de :	
http://www.google.com/amp/s/www.vix.c	
om/es/btg/curiosidades/5031/medicina-	
regenerativa-impresion-de-organos-en-	
3D%Famp
García, E. (2016). Huesos y prótesis gracias a la
impresión 3D. Recuperado de:http://omi-
crono.elespanol.com/2017/06/bioimpre-
sion-3d-protesis/
Opazo, P. (2017). 5 formas sorprendentes de apli-
car la impresión 3D en la medicina ac-
tual. Recuperado de: https://nacionfarma.
com/5-formas-sorprendentes-aplicar-la-im-
presion-3d-la-medicina-actual/
Pozuelo, V. (2013). Impresoras en 3D que crean ór-
ganos: el futuro de la eHealth. Recuperado
de:https://blogthinkbig.com/impresoras-en-
3d-que-crean-organos-el-futuro-de-la-eheal-
th
Sanz, J. (2015). Impresión 3D, Beneficios para la me-
dicina. Recuperado de: https://iq.intel.es/im-
presion-3d-beneficios-para-la-medicina/
Soleto, N. (2014). La impresión3D en beneficio de la
medicina y la salud. Recuperado de: https://
www.jose.neuroname.com/la-impresion-3d-
en-beneficio-de-la-medicina-y-la-salud/
Vazhnov, A. (s.f.). Impresión3D Como va a cambiar
el mundo. Recuperado de: https://instituto-
baikal.com/libros/impresion-3d/mover-ma-
teria-en-el-espacio./
31
COMPUTADORAS CUÁNTICAS UNA PROMESA DE LA TECNOLOGÍA
INFORMÁTICA
Condori Chávez Eynar, Martínez Quispe Elvis, Choque Condori Luis
eynar522@gmail.com, elviskickass@gmail.com, luismerloggg@gmail.com
Universidad Mayor De San Andrés
Carrera de Informática
Gramática Española
RESUMEN
Las computadoras cuánticas prometen revolucionar la
tecnología informática, empleando la mecánica cuán-
tica para procesar y resolver problemas millones de
veces más rápido que los dispositivos actuales.
Una misma tarea puede tener diferente complejidad,
en computación clásica y en computación cuántica, ya
que problemas intratables pasan a ser tratables, mien-
tras que una computadora clásica equivale a una má-
quina de Turing.
PALABRAS CLAVE: Mecánica Cuántica, Compu-
tación Cuántica, Qubit.
ABSTRACT
Quantum computers promise to revolutionize infor-
mation technology using quantum mechanics to pro-
cess and solve problems millions of times faster than
current devices.
The same task may have different complexity of clas-
sical computing and quantum computing since intrac-
table problems becomes treatable, while a classical
computer equals a Turing machine.
Keywords: Quantum Mechanics, Quantum Compu-
tation, Qubit.
1. INTRODUCCION
En 1981, surgió la idea de la computación cuántica,
“cuando Paul Benioff expuso su teoría para aprove-
char las leyes cuánticas en el entorno de la computa-
ción. En vez de trabajar a nivel de voltajes eléctricos,
se trabaja a nivel de cuanto” (Molina, 2012).
En 1982 Richard Feynman, observó que ciertos proce-
sos cuánticos no pueden ser operados eficientemente
por una computadora tradicional, donde surge la idea
de que aquellos efectos podrían ser utilizados para
realizar computaciones en una forma nueva. “En 1985
Feynman, presentó el concepto en una conferencia
titulada Quantum Mechanical Computers y así nació
este nuevo campo”. (Morales, 2009, p. 25).
La mecánica cuantica se trata, de “un concepto de la
física que establece que las cosas pueden estar en dos
lugares al mismo tiempo” (BBC Mundo, 2017). Al
utilizar los principios de la mecánica cuántica “se ha
identificado un tipo de máquina que puede estar en
más de un estado al mismo tiempo: la computadora
cuántica” (Morales, 2009, p. 25).
Figura 1. Primer computador cuántico de 51 cúbits.
Fuente: (Campillo, 2017)
Gracias a este nuevo paradigma de la informática, se
espera contar con máquinas capaces de resolver en
unos segundos algunos cálculos y analizar millones de
datos simultáneamente, lo que llevan años a los orde-
nadores de hoy en día; por ello, Google, IBM, Micro-
soft y la NASA, entre otros, llevan décadas trabajando
en la computación cuántica.
La aplicabilidad de la computación cuántica depen-
de de la posibilidad de desarrollar una computadora
cuántica.
Un ejemplo del inmenso poder de las computadoras
cuánticas es el algoritmo cuántico para determinar si
un número es primo.
Una computadora actual se tardaría miles y hasta mi-
llones de años (dependiendo de cuan
32
grande sea el número a factorizar) en ejecutar tal
algoritmo ; a diferencia de una computadora cuántica
le tomaría tan solo unos cuantos segundos el comple-
tar la tarea.
2. DESARROLLO
El paradigma y la complejidad de la computación
cuántica, es diferente al de la computación clásica,
siendo que los qubits reemplazan a los bits. Enton-
ces, algunos problemas considerados intratables pa-
san a ser tratables. Por lo que, un computador clásico
equivale a una máquina de Turing, un computador
cuántico equivale a una máquina de Turing cuántica.
(Molina, 2012).
En la computadora clásica, el bit, es la unidad de for-
mación, que tiene el valor de 1 o 0. En cambio, la
computadora cuántica, opera con qubits o bits cuán-
ticos, por lo tanto, pueden tener toda la combinación
de valores: 0 0, 0 1, 1 0 y 1 1 en un mismo momento.
Figura 1. Computación cuántica
Fuente:( Ossorio, 2016)
Bits cuánticos y paralelismo cuantico
La unidad mínima de la información es el bit, donde
un bit sólo puede tener uno de dos valores, que para
efectos prácticos se representa como 1 o 0 (Morales,
2009). En computación cuántica, un bit cuantico o qu-
bit, puede estar en ambos de los estados: 0 o 1, ade-
más, puede estar en una superposición de dos o más
de entre ellos.
El paralelismo cuántico, es cuando “el algoritmo
cuántico toma un atajo pasando por muchísimos esta-
dos al mismo tiempo y volviendo al proceso tradicio-
nal únicamente para reportar resultados o para tomar
la siguiente entrada.” (Morales, 2009, p. 25)
Las computadoras cuánticas, cuentan con un parale-
lismo intrínseco, a diferencia de las maquinas clási-
cas, que siguen siendo maquinas secuenciales. (Mo-
rales, 2009). En la Fig. 2, se ilustra cómo se opera el
paralelo sobre cuatro números de un qubit hecho de
dos bits físicos.
Figura 2. Paralelismo Cuántico
Fuente:(Saniz, 2001)
Algoritmos cuánticos
-	 Algoritmo de Shor
El algoritmo de Shor fue inventado en 1995 por Peter
Shor, que factoriza rápidamente grandes cantidades.
IBM y la Universidad de Stanford, consiguen ejecu-
tar por primera vez el algoritmo de Shor en el primer
computador cuántico de 7-qubit desarrollado en Los
Álamos.
-	 Algoritmo de Grover
Lov Grover ha escrito un algoritmo que usa computa-
doras cuánticas para buscar una base de datos sin cla-
sificar. Muestra cómo puede realizarse una búsqueda
secuencial con computación cuántica y reducir el
tiempo que toma a nada más la raíz cuadrada del que
tomaría con una computadora tradicional.
COMPUTACIÓN CUÁNTICA
La comunidad científica dedicada a investigar tópicos
en el ámbito de la computación cuántica, ha logrado
enormes avances teóricos, al demostrar que es posible
reducir drásticamente los recursos computacionales
requeridos en la ejecución de algoritmos. Algunos de
esos algoritmos requieren un inmenso poder decóm-
puto aún en las computadoras más avanzadas de la
actualidad.
Algunos algoritmos matemáticos como labúsqueda de
los factores de números primos, algoritmos de manejo
de información como la búsqueda en bases de datos
no ordenadas; han sido teóricamente desarrollados
con mucho éxito, utilizando los fundamentos de la
computación cuántica.
33
La teoría de la computación cuántica esta basada en
las interacciones del mundo atómico y en futura sim-
plementaciones de las computadoras cuánticas.
Estas aún están en los laboratorios de investigación
pero ya se tienen resultados alentadores, como el de-
sarrollo de la computadora cuántica de cinco qubits
desarrollado por Steffen et al [Steffen01].
El bit cuántico “qubit”
El elemento básico de la computación cuántica es el
bit cuántico o qubit 1 (quantum bit por sus siglas en
inglés), un qubit representa ambos estados simultá-
neamente, un “0” y un “1” lógico, dos estados orto-
gonales de una sub partícula atómica, como es repre-
sentada en la figura 1. El estado de un qubit se puede
escribir como {½0ñ, ½1ñ}, describiendo su múltiple
estado simultaneo.
Un vector de dos qubits, representa simultáneamente,
los estados 00, 01, 10 y 11; un vector de tres qubits, re-
presenta simultáneamente, los estados 000, 001, 010,
011, 100, 101, 110, y 111; y así sucesivamente. Es de-
cir un vector de n qubits, representa a la vez “n”esta-
dos.
Figura 4. Representación de cuatro estados diferentes
de un qubit. [Steffen01]
Fuente:(Klebe, 1988)
Cualquier sistema cuántico con dos estados discretos
distintos puede servir como qubit, un espín de electrón
que apunta arriba o abajo, o un espín de fotón con po-
larización horizontal o vertical.
En la figura 4 se tiene una representación pictórica
de cuatro diferentes estados basado en el espín de un
núcleo atómico, por lo que puede ser usado como un
qubit.
Un qubit no puede ser clonado, no puede ser copiado,
y no puede ser enviado de un lugar a otro.
Es de esperar en los años que vienen, las computado-
ras clásicas muestren progresos importantes en cuanto
a su capacidad y velocidad. A diferencia de la compu-
tación cuántica, que lo haría de manera exponencial.
Se estima que los primeros PC cuánticos no se comer-
cializarán, como muy pronto, hasta 2025, pero cada
vez es más frecuente leer noticias que van despejando
el camino hasta llegar a ese momento.
Las computadoras cuánticas, se considera que no se-
rán de uso general. No es probable que se vea aplica-
ciones completas basadas exclusivamente en este tipo
de computación. Esto se debe a que en la gran mayoría
de problemas en los que nos ayudan estas máquinas
hoy en día, se necesita conocer los resultados de cada
operación individual.
En 2004 científicos del instituto de Física Aplicada de
la Universidad de Bonn, publicaron resultados sobre
un registro cuántico, por lo que son llamados cúbits
por analogía con los bits. Su objetivo era construir una
puerta cuántica, con lo cual se tendría los elementos
básicos que constituyen los procesadores, que son el
corazón de los computadores actuales.
Cabe destacar, que un chip de tecnología VLSI (in-
tegración a escala muy grande) contiene actualmente
más de 100 000 puertas, de manera que su uso prácti-
co todavía se presenta en un horizonte lejano.
Sin embargo, científicos de los laboratorios Max
Planck y Niels Bohr, publicaron en noviembre de
2004, resultados sobre la transmisión de información
cuántica a distancia de 100 km, usando la luz como
vehículo.
Se obtuvieron niveles de éxito del 70%, lo que repre-
senta un nivel de calidad utilizar protocolos de trans-
misión con autocorrección. Actualmente se trabaja en
el diseño de repetidores, que permitirán transmitir la
información a distancias mayores a las ya alcanzadas.
En 2016, Intel trabaja en el dominio del silicio por
el primer ordenador cuántico, en mayo de 2017, IBM
presenta un nuevo procesador cuántico comercial.
El más potente hasta la fecha es de 17 cúbits, no obs-
tante, un grupo de investigadores rusos y estadou-
nidense, desarrollaron un potente sistema 51 cúbits,
algo inédito hasta la fecha, esta computadora supera
ampliamente el procesador de 17 cúbits de IBM del
que tanto se habló en el último tiempo y con el cual se
34
están llevando adelante pruebas.
Es incluso más potente que el chip de 49 cúbits, con el
cual se estaría trabajando dentro del laboratorio cuán-
tico de Google.
Por unos 3.8 millones de euros puedes adquirir un or-
denador cuántico. D-Wace, una empresa canadiense,
ya ha comercializado algún modelo.
3. CONCLUSIÓN
Los ordenadores cuánticos se basan en el uso de los
cúbits (bits cuánticos) en lugar de bits, y da lugar a
nuevas puertas lógicas que hacen posibles nuevos al-
goritmos.
Poseen una capacidad de cálculo muy superior a los
computadores actuales gracias al paralelismo masivo
(exponencial) debido a la superposición de estados en
los cúbits.
También propone un desenvolvimiento en el campo
de la criptografía y en las factorizaciones grandes de
números primos que amenaza la seguridad en comuni-
caciones encriptados que emplean muchas empresas.
Las computadoras cuánticas, es un campo en el que
queda mucho por descubrir.
4.BIBLIOGRAFIA BIBLIOGRAFICAS
Amas, C. (1960). Introduccion a los Algoritmos
Geneticos . Mexico.
Boole, G. (1860). A Triese on the Calculus of
Infinte . Reino Unido: Cork.
Boole, G. (1954). An Investigaion of the Laws
of Thought, on Which Are founded the
Mathematical . New York: Dover Publi-
sher.
Coello, C. (1997). Taller de Aprendizaje. Mexi-
co.
Espinar, C. (1938). A symbolic analysis of realy
and switching circuits. Estados Unidos :
Transactions of the AIEE.
Goldberg, D. (1989). Genetic Algorithms in
Search Optimization and Machine.
Scotland: Edinburgh .
Herbert, S. (2001). Java 2:Manual de referncia .
España: mcGraw Hill.
Kalganova, T. (2000). Envolvable Hardware
Design of Combinational. Scotland :
Napier
University.
Koza, J. (1992). Genetic Programing. Massa-
chusetts: Longman Inc.
Lopez, I. G. (2000). Obtencion de la forma de la
Superficie Esferica a apartir de radios
de Curvatura Locales. Mexico: Univer-
sidad Tecnologica de Mixteca.
Miranda, G. (2005). Manual de Java . Obtenido
de server2.ok.cl/java/index.html
morris, m. (1987). diseño digital . Mexico: pren-
tice hall.
Soria, `. P. (2008). Circuito Combinacional y sus
Aplicaciones . Obtenido de severv/com-
bi/aplicaciones/estadosunidos334&ffg/
nij.html
35
DESENCRIPTACION DE CANALES SATELITALES
Apaza Villca Sergio Juan, Choque Ticona Caleb, Villalobos Quispe Henry Jordan
sergioapaza30@gmail.com, calebchoqueticona@gmail.com, henry_emdth@yahoo.com
Universidad Mayor de San Andrés
Carrera de Informática
Gramática Española
RESUMEN
La liberación de canales por medio de IKS es una
forma de ver canales de televisión satelitales, esto sin
representar ningún costo por adquirir este servicio,
es decir este servicio es de forma gratuita, ya que
como se mencionó que el servicio es gratuito el
único costo que se debe realizar es el de adquirir los
equipos necesarios para realizar este fin, la liberación
de estos canales se pueden obtener por diferentes
medios como ser el sistema SKS, siendo este método
el menos utilizado ya sea por empresas que brindan
este servicio o por un usuario aficionado al mundo
de las telecomunicaciones, siendo un método antiguo
por el hecho de que necesitaría hardware adicional sin
mencionar que este método a día de hoy no resulta
ser tan eficaz. Siendo el sistema IKS como algún tipo
de llave electrónica que nos permite la liberación
de canales satelitales, a diferencia del sistema SKS
este a día de hoy sigue siendo un sistema eficaz y
estable, esto dependiendo de los desarrolladores de
los Decodificadores en caso de optar por tener “Cable
pirata” ya que las grandes empresas que se encargan de
brindar este servicio son más estables ya que no corren
el riesgo de cerrar sus servidores que generan las llaves
electrónicas, siendo estas por medio de tarjetas. Es
por esto que para un usuario sin ningún conocimiento
sobre este mundo y desea optar por este método de
liberación de canales solo necesita de su parte contar
con una conexión a Internet, indispensablemente debe
ser por medio del WiFi, siendo el WiFi el único medio
con que se puede acceder a este método.
Palabras clave: IKS, SKS, LNB, SatFinder,
transponder, oscilador, modulador, demodulador,
llaves electrónicas, decodificación, latitud, longitud,
azimuth.
ABSTRACT
The release of channels by means of IKS is a way
of seeing satellite television channels, this does not
represent any cost for purchasing this service,
that is to say this service is free of charge, as it was
mentioned that the service is free the only cost that
must be done is to acquire the necessary equipment
in order to achieve this objective, the release of these
channels can be obtained by various means, such
as the system SKS, being this method the less used
by the companies that offer this service or by a user
amateur to the world of telecommunications, being
an ancient method by the fact that it would require
additional hardware without mentioning that this
method to Today turns out not to be so effective. The
IKS system as some kind of electronic key that allows
us the release of satellite, in contrast to the SKS this
today remains an effective and stable, this depending
on the developers of the decoders in case of opting for
having “pirate” as large companies that provide this
service are more stable since it does not run the risk of
closing their servers that generate the electronic keys,
being these by means of phone. It is for this reason that
for a user without any knowledge about this world and
want to opt for this method of release of channels only
needed on your part to have a connection to Internet
fuses must be by way of the WiFi, the WiFi the only
means that you can access this method.
Key words: IKS, SKS, LNB, SatFinder, transponder,
oscillator, modulator, demodulator, electronic keys,
decoding, latitude, longitude, azimuth.
1. INTRODUCCIÓN.
Los sistemas satelitales hoy en día tienen múltiples
aplicaciones, el mundo de las telecomunicaciones nos
abre campo a la informática como ser el área de las
redes, esto es bien aprovechado por los informáticos en
este caso la Decodificación de canales satelitales. Con
esto se obtiene la liberación de canales satelitales, esto
tiene la gran ventaja de liberar canales si ningún tipo
de costo adicional además de los equipos necesarios
para lograr este fin.
Ya que las grandes empresas que se dedican a distribuir
este servicio a un costo elevado, la tecnología de esta
área en nuestro país en escasa y por consecuencia el
elevado costo de estos servicios que en otros países
son como un servicio básico.
36
Existen normas que controlan este campo, pero no
nos impide que hagamos uso de decodificadores
satelitales y aplicando nuestro conocimiento sobre el
área, para obtener este servicio. Respaldándonos en
el comunicado que dio la ATT “La compra de estas
antenas en este momento no está violentando la Ley
de Telecomunicaciones, observamos que todavía no
tenemos una reglamentación para la introducción al
país de estos equipos para captar canales satelitales”
(Alvaro Liksic, 2012)
Esto hasta la fecha no existe una normativa que
controle la venta de estos equipos. Es por ese que se
este servicio es utilizado en nuestro medio, claro que
al ser pirata esto tiene sus inconvenientes.
2. DESARROLLO
2.1. Fundamento teórico.
Se dispone de una red de satélites con diferentes
objetivos que orbitan el planeta tierra como ser
satélites una de ellas es la transmisión de canales de
TV, nos centraremos en esa red satelitales.
En esta red existen diferentes satélites dedicados para
este fin siendo el más común el satélite Amazonas
61W de las comunicaciones por satélite.
Anteriormente solo se recepcionaban canales al
apuntar al satélite con una antena satelital de 60cm,
hoy en día esto ha sido controlado por medio de llaves
(digitales).
Para esto es indispensable contar con un decodificador
satelital, una antena satelital, LNB y cable coaxial.
Ademásdeherramientasespecíficasquenosfacilitaran
esta tarea de apuntar a un satélite en concreto. Como
ser Inclinómetro, Brujula, SatFinder.
Este trabajo tiene como eje central los enlaces
satelitales, y dentro de dicho tema se ha hecho hincapié
en las características.
2.2. Redes satelitales.
Los satélites se los puede definir como repetidores
localizados en el espacio, este es capaz de recepcionar
señales de alguna estación terrena está ubicada en la
tierra, la forma de trasmitir de estas señales son de alta
frecuencia por lo que hasta llegar al objetivo receptor
ubicado en el espacio este pierde potencia y es por esa
situación que los satélites también son considerados
como Amplificadores de dicha señal, al situarse en
el espacio este puede enviar la señal ya sea al mismo
punto donde se generó o cualquier punto de la tierra
que tenga línea de vista(sin obstáculos) con el satélite.
Así estos satélites consisten de un Transponder
(dispositivo receptor-transmisor), una estación terrena
controla el funcionamiento de un determinado satélite
o varios satélites esto depende al tipo de trabajo
específico del satélite en este caso para la transmisión
de canales de TV satelitales.
2.3. Modelo de bajada.
Los receptores satelitales llevan una serie de etapas,
las más importantes son el amplificador, modulador,
Oscilador o Generador y demodulador.
Estas etapas hacen posible la recepción de estas
señales satelitales, al recepcionar se debe amplificar
ya que esta señal se debilita al llegar a su objetivo, esta
señal debe ser regenerada sin perder su información
es donde intervienen la etapa del modulador y el
oscilador.
Y por último el decoficador debe interpretar esta
información en forma de señal, el demodulador lo
interpreta estas señales a un tipo de información
que es posible interpretar por el resto de las etapas
que hacen posible la emisión de video hacia nuestro
repectores de TV.
Fig. 1. Diagrama en bloques de Receptor satelital.
Fuente (Chandos, 1992)
2.4. Satélites orbitales.
Estos satélites giran alrededor de la tierra en un patrón
elíptico. Como la tierra está en constante movimiento
los satélites también giran al mismo sentido y a una
velocidad similar al de la tierra.
De esta forma los distintos satélites no permanecen
estacionarios con relación a ningún punto específico
de la Tierra.
2.4.1. Latitud longitud.
Como primera medida para describir el paso de
un satélite en órbita, se debe designar un punto
de observación o un punto de referencia. Este punto
podrá tratarse de un lugar distante, tal como una
estrella, o un punto en la superficie de la tierra, o
también el centro de la Tierra, que a su vez el centro
de gravedad del cuerpo principal.
En caso de tomar como lugar de observación un
punto en la superficie de la Tierra, deberemos estar
en condiciones de localizar el punto mediante
algún método.
Este método de localización es a través del meridiano.
Estas líneas conforman cuadriculas sobre la superficie
de la Tierra. Las líneas verticales se denominan
37
Longitud y las líneas horizontales se denominan
Latitud.
Las líneas de Longitud se extienden desde el  Polo
Norte al Polo Sur, es decir que son círculos iguales al
contorno de la Tierra que se interceptan en los polos.
Se ha definido por convención, como primer meridiano
o Longitud cero grados, a este lo denominan como
meridiano de Greenwich, siendo este como punto de
referencia por ser el punto cero.
Estas definiciones son muy importantes ya que por
medio de estos datos se podrá localizar a cualquier
satélite, siempre y cuando se tenga una línea de vista
de la posición del satélite con el punto de recepción.
Chandos (1992) refiere que existen 90° hacia el
hemisferio Norte, denominado Latitud Positiva y
90° hacia el hemisferio Sur, denominado Latitud
Negativa. Por lo tanto, mediante la intersección de las
coordenadas de Latitud y Longitud podremos localizar
un punto que este sobre la superficie de la Tierra.
Fig. 3. Líneas de Latitud y Longitud
Fuente (Chandos, 1992)
En cuanto a un satélite, este se encuentra en el espacio,
y su posición puede ser estimada con una Latitud, una
Longitud y una altura. Esta altura estará referida a
un punto sobre la Tierra que es la intersección de la
recta que une al satélite con el centro de la Tierra y la
superficie de la tierra.
2.4.2. Ángulos de vista.
Para lograr recepcionar señales de cualquier satélite es
necesario conocer datos adicionales como ser ángulo
de elevación y azimut. Estos se denominan ángulo de
vista, para tener una buena línea de no se deben tener
ningún tipo de obstáculos para tener un buen nivel de
señal, sin mencionar los cambios climáticos que se
pueden producir, estos cambios debilitan las señales
satelitales.
2.4.3. Ángulo de elevación.
El ángulo de elevación es el ángulo formado entre la
dirección de viaje de la señal transmitida desde una
antena de estación terrena y la horizontal, o el ángulo
de la antena de la estación terrena entre el satélite y
la horizontal. Entre más pequeño sea el ángulo de
elevación, mayor será la distancia que debe recorrer
nuestra señal hasta ser recepcionado por un satélite.
Existen ángulos de elevación aceptables para que la
señal recepcionada no sufra mucha distorsión y esta se
denomina transmisión inadecuada. Como se mencionó
anteriormente esta distorsión también se presenta
por fenómenos climatológicos. Por esta situación el
ángulo de elevación mínimo es 5 grados.
Fig. 4. Eje de coordenadas.
Fuente (Chandos, 1992)
2.4.4. Azimut.
Azimut se define como el ángulo de direccionamiento
horizontal de una antena. Tomando como el Norte
como cero grados, y si continuamos girando en el
sentido de las agujas del reloj, hacia el Este, llegaremos
a los 90° de Azimut.
(Chasndos,1992) refiere que al Sur tendremos los
180° de Azimut, hacia el Oeste los 270° y por ultimo
llegaremos al punto inicial donde los 360° coinciden
con el 0° del Norte. Este dato es importante para
localizar la ubicación orbital del satélite en cuestión.
El ángulo de elevación y el azimut, dependen ambos,
de la latitud de la estación terrena, así como el satélite
que queremos apuntar.
2.5. IKS.
Por este sistema IKS (Internet Key Sharing),
comúnmente conocido como llave electrónica, es
posible liberar o acceder a canales satelitales, siendo
que el desencriptador o “dongle” se conecta por medio
de Internet a un servidor IKS, el cual es proporcionado
por el fabricante del equipo, que está configurado
38
internamente en el aparato, y baja del servidor, en
intervalos regulares de tiempo, los códigos IKS para
desencriptar las señales de canales satelitales.
Este sistema funciona el 98% del tiempo, por este
hecho es que se considera un sistema muy estable a
diferencia de otros métodos para obtener las mismas
llaves electrónicas.
CabenotarqueelservicioIKSpuedeserproporcionado
de manera pública por el fabricante del equipo o
decodificador satelital de manera pública es decir de
manera gratuita como también puede ser por medio
de un IKS privado el cual cobra una mensualidad
para poder darte los datos de acceso para ingresarlos
a decodificadores y de esta forma poder acceder a los
canales. Las empresas que brindan este servicio por
este sistema IKS controlan estas llaves electrónicas
por medio de tarjetas que han de ser introducidas al
equipo decodificador, siendo de este modo capaces de
controlar estas llaves con más seguridad.
2.6. Proceso para el alineamiento al satélite
amazonas.
Una vez obtenido los equipos necesarios para el
alineamiento de la antena satelital. Primero debemos
ingresar al sitio web Portaleds de ahí debemos
seleccionar elTPdel satélite que deseamos recepcionar
la señal, en este caso el satélite amazonas es el más
común además el que más canales emite.
Una vez puesta en funcionamiento nuestro
decodificador se procede a cargar TP del satélite, de
ahí nuestro decodificador estaría configurado para
recepcionar el satélite mencionado.
Seguidamente debemos pasar al calibrado de la
antena satelital, esto asumiendo que está montado en
su trípode pero siempre el mástil al que está sujeta
debe estar a 90° esto lo podemos verificar con nuestro
respectivo inclinómetro, al no realizar este ajuste se
nos será difícil apuntar la antena.
Seguidamente debemos encontrar datos adicionales
de Dishpointer este sitio nos permite ubicar el azimut
(grados respecto al norte, sentido horario) del satélite,
para eso primeramente debemos seleccionar el satélite
Amazonas 61W, en La Paz Bolivia este satélite está
orbitando aproximadamente por el Este (sentido sale
sol).
Fig.5. Antena y Decodificador.
Fuente (Anónimo, 2010)
Una vez ubicado el Azimuth con nuestra Brújula
debemos inclinar la antena, la antena es capaz de
apuntar a donde deseemos, pero lo complicado es
apuntar al satélite, los datos adicionales sobre la
inclinación de la antena también no las proporciona en
sitio Dishpointer, esto también lo debemos controlar
con el inclinómetro. Además, el LNB también
tiene que una inclinación todos estos datos nos la
proporciona el sitio Dishpointer. Este sitio nos sirve
de apoyo, ya que no lo apuntaremos a la primera, por
eso es que es muy necesario el Sitefinder, este aparto
necesita su configuración y un poco caro de adquirirlo
por eso lo tienen los que se dedican esto. Este aparato
lo que hace es mostrarnos la intensidad de la señal y
mediante esto nosotros vamos moviendo la antena y
así tener una señal del 80% que es considerado como
buena señal con esto es suficiente para que no se entre
corte la señal.
Asumiendo que lo habremos apuntado corroboramos
con nuestro receptor TV, este también nos sirve como
una especie de Sitefinder ya que también nos muestra
la intensidad de la señal, pero no con la potencia del
Sitefinder.
Una vez apuntado al satélite y con el decodificador
en funcionamiento ya estamos decepcionando señal
del satélite y nuestro decodificador lo está modulando
como canales de TV. Pero como se mencionó
anteriormente estos no están liberados (bloqueados).
39
Fig. 6. Modelo de instalacion.
Fuente (Jorge Olivares A., 2011)
Ahí es donde se logra intervenir con la Desencriptación
de los canales mediante el sistema IKS.
En este caso debemos asegurarnos que nuestro
decodificador cuente con conexión WiFi, esto es
indispensable si es que contase con esta función
debemos adicionar por Hardware un Módulo Wifi
USB para el decodificador, ya que los decodificadores
de canales satelitales cuentan con estos puertos.
Fig. 7. Modulo WiFi USB
Fuente (Elaboración propia, 2017)
Como se mencionó anteriormente por el medio IKS
es como se podrá desbloquear los canales encriptados,
al ser una recepción clandestina la estabilidad de esta
señal (llave) dependerá de los servidores habilitados
o la congestión que exista en dichos servidores,
esto deberá ser controlado por proveedor de estos
decodificadores. Estas congestiones puede ser
considerado como un inconveniente al momento de
ver los canales satelitales liberados, ya que podría
existir cortes en la trasmisión, como se mencionó
anteriormente esto dependerá del mantenimiento que
le den a estos equipos, ya sea cambiando de servidores
o actualizando el software del decodificador.
Es indispensable de una conexión a Internet para este
fin.
Fig. 8. Esquema de funcionamiento.
Fuente (Anónimo, 2010)
3. CONCLUSIONES
El propositito de este experimento es aplicar los
conocimientos sobre lo que sabe del mundo de las
redes, ya sea en el área de las telecomunicaciones.
Cabe resaltar que pasa lograr este propósito en
necesario realizar una inversión económica para
adquirir el Decodificador, antena satelital y un módulo
USB WiFi, si es que el decodificador no cuente con
Wifi.
Este método de Desencriptar los canales se consideran
algo ilegal, por eso que se corre el riesgo de que algún
día sierren en servidor que libera las llaves y esperar
a que abran otro.
El uso de estos decodificadores en Bolivia no es ilegal,
ya que no todavía no existe la normativa de la ATT
que regule el comercio de estos equipos.
4. REFERENCIAS BIBLIOGRAFICAS
Anónimo. (2016). Sistema IKS
http://tutorialtvsatelital.blogspot.com/p/iks.
html.
Anónimo. (2015). Que es televisión 	 satelital
fta,iks,sks
http://www.mundoibox.com/2016/02/que-
es-television-satelital-fta-iks-sks.html
Anónimo. (2013). Redes satelitales
https://instalacionsatelital.wordpress.com/
about/
Anónimo. (2010). SatNetpy
http://satnetpy.blogspot.com/p/kit-basico.
html
40
Angel Aranguz. (2010). CFGM Equipos 	
Electronicos
https://sites.google.com/site/
equiposdeimagengmfp/
1transmisiondetelevision/funcionamiento
de-la-tv-satlite
Alvaro Liksic. (2012). Norma de 	 regularizació
	 de venta de decodificadores.
http://elpaisonline.com/index.php/editorial/
item/3845-att-espera-norma-para-la-venta-
deantenas-satelitales
Chandos A. Rypinski. (1992). DOCUMENTO
	 IEEE “Características de una Radio
	 LAN”
https://es.scribd.com/document/235076902/
Monografico-de-Medios-de-Tansmision-de
-Redes-Inalambricas
Elie Moreno, Carlos Landaeta. (2010). TV 	 satelital.
http://www.labc.usb.ve/paginas/Ec4434/
trabajos%20ENE-MAR04/TVsatelite.pdf
Jorge Olivares A. (2011).Televisión satelital de 	
televisión satelital FTA, en la provincia
	 de Aija enel año 2015.
http://www.spw.cl/inalambrico/dth3.pdf
Miguel David. (2015). Propuesta de
	 implementación de una red de televisión
	 por cable, utilizando el sistema
http://repositorio.uladech.edu.pe/bitstream/
handle/123456789/887/TELEVISION_%20
SATELITAL_RODRIGUEZ_%2
0SANCHEZ_MIGUEL_%20DAVID.
pdf?sequence=1
41
DISEÑO DE CIRCUITOS LÓGICOS COMBINATORIOS MEDIANTE
ALGORITMOS GENÉTICOS
Copa Mita Luis Fernando, Furuya Valdivia Grace
luiscopa786@gmail.com , grace22yw@outlook.es
Universidad Mayor de San Andrés
Carrera de Informática
Gramática Española
RESUMEN
El comportamiento de los circuitos combinacionales
sólo depende de las señales de entrada en un instante
determinado, y no de la secuencia de entradas, es decir,
de la historia del circuito. Este hecho no quiere decir
que el comportamiento temporal no sea importante,
de hecho una de las principales características de
los circuitos que se tienen en cuenta es la velocidad
de operación o el retraso de propagación, todos los
métodos nos ayudan a simplificar los circuitos y la
complejidad de estos utilizando mapas de Karnaught
también usando el método Quine-McCluskey para la
solución de estos.
Además Java surge por la necesidad de contar con un
lenguaje de programación que fuera independiente de
la plataforma, permitiendo generar software para di-
versos dispositivos electrónicos. La Word Wide Web
hace que java se convierta en el lenguaje de progra-
mación más importante para el desarrollo de software
para la internet, ya que la web demanda programas
portables
Palabras clave: Circuitos, Compuerta, Función
Java, Matriz, Método, Sistema, Sumador.
ABSTRACT
The behavior of the combinational circuits depends
only on the input signals at a given time, and not on
the sequence of inputs, that is, on the circuit history.
This fact does not mean that the temporal behavior is
not important; in fact one of the main characteristics of
the circuits that are taken into account is the speed of
operation or the delay of propagation, all the methods
help us to simplify the circuits and the complexity of
these using karnaught maps also using the Quine-Mc-
Cluskey method for the solution of these. In addition
Java arises from the need to have a programming lan-
guage that is independent of the platform, allowing to
generate software for various electronic devices. The
Word Wide Web makes java become the
most important programming language for software
development for the internet, as the web demands por-
table programs
Keywords: Circuits, Gate, Function Java, Matrix,
Method, System, Adder.
1. INTRODUCCIÓN
El adelanto tecnológico conseguido en los últimos 50
años por la humanidad ha sido tal que es superior a
la suma de los avance alcanzados hasta antes de los
años 1990 .Esto se debe en gran medida a la electró-
nica digital ,cuya implementación ha permitido pro-
gresos importantes en la ciencia ,en la industria, en
las comunicaciones y en la vida cotidiana .el mayor
representante de ello es la computadora digital, he-
rramienta sin la cual es posible imaginar los logros
obtenidos ,como por ejemplo el programa espacial,
control de tránsito aéreo, automatización de proce-
sos en la industria ,la internet por mencionar algunos
.todo aquello gracias al desarrollo de circuitos inte-
grados pequeños y de bajo costo .el diseño de cir-
cuitos ha requerido la aplicación de varias técnicas
para simplificarlos “Probabilidad de una expectativa
fundada en un conocimiento parcial. Un perfecto co-
nocimiento de todas las circunstancias que afectan la
ocurrencia de un evento que cambiaría expectativa en
certeza, y dejar espacio inferior ,ni la demanda de una
teoría de las probabilidades (Boole, A Triese on the
Calculus of Infinte , 1860).En un principio se utilizó
el álgebra booleana ,no obstante al incrementarlo de
tamaño y complejidad de los circuitos (mayor número
de variables de entrada y mayor número de salidas)
fue necesario utilizar otras técnicas .los mapas de Kar-
naugh representaron una solución (estos mapas son un
procedimiento que facilita la reducción de los circui-
tos de forma gráfica), sin embargo ,estos dejan de ser
prácticos para problemas mayores de seis variables .
El método Quine-McCluskey permitió superar este
problema, y además, su implementación en una com-
putadora resulta más simple. Estas son más las he
42
rramientas más conocidas para el diseño de circuitos
lógicos.
2. DESARROLLO
La forma en que se representa un circuito lógico es
por medio de una matriz bidimensional, en la que cada
elemento es una compuerta que recibe en sus dos en-
tradas la salida de cualquier compuerta de la columna
anterior en la figura se visualiza la representación.
Figura 1 : Compuertas And Or Y Not .
Fuente:(morris, 1987)
La codificación de una compuerta requiere de tres ge-
nes: uno indica el tipo de compuerta, y los otros dos
corresponden a las entradas.
En esta codificación cada celda de la matriz contiene
la información referente a la compuerta y sus entradas.
Las compuertas que pueden estar codificados en cada
una de las tercias pueden ser las siguientes: AND, OR,
XOR, NOT, o WIRE. Esta última es realidad no es una
compuerta y no contribuye en la cuenta de compuertas
presente en la solución, sino que se trata de un refor-
zador de corrientes que es necesario para poder llevar
a cabo la optimización de las soluciones.
Las entradas de cada compuerta provienen única-
mente de la columna previa a la columna donde se
encuentra la celda. Cabe decir que la primera columna
no tiene columna previa así que para ella las entradas
de las compuertas son precisamente las variables de
entrada del circuito.
Figura 2. Forma de Representar Circuito
Fuente:(Amas, 1960)
El espacio de búsqueda máximo debido a esta repre-
sentación depende directamente del número
de tipos de compuertas distintas que pueden ser uti-
lizadas en el diseño del circuito y del tamaño de la
matriz usada para la representación de las soluciones.
Si tenemos una matriz de:
n * m
Entonces la longitud necesita para representar es de:
3 * n * m
Ya que cada una de las celdas es una tercia de infor-
mación. Si además tenemos k tipos de compuertas dis-
tintas entonces el espacio de búsqueda es de k3nm
, en
la figura (del celular) se muestra un ejemplo de una
matriz de 5 * 5 con 5 tipos de compuertas distintas y
con un espacio de búsqueda de tamaño de:
55*5*3
= 575
=2.6x1052
.
Ahora es posible calcular la longitud del cromosoma
(L):
L = reglones * columnas * 3, Reglones * Columnas
Determina el número de componentes que tiene la ma-
triz, y el número tres, la cantidad de genes necesarios
por componentes. Por tal motivo, la longitud del cro-
mosoma se calcula de la siguiente manera:
L = renglones * columnas * 3 * reprebinaria,
Reprebinaria es el número de genes necesarios para
manipular la representación binaria.
43
Por ejemplo si la matriz es de 7 * 7, siete es el número
máximo a representar, así que para este caso se nece-
sita tres posiciones más, ya que 111 = 7. Por lo tanto,
la longitud del cromosoma será:
L = 7 * 7 * 3 * 3 = 441
Mientras que para la entera será:
L = 7 * 7 * 3 = 147
Para este ejemplo, la longitud del cromosoma con co-
dificación entera es tres veces menor a la longitud ob-
tenida por la binaria, las ejecuciones de esta serán en
menor tiempo. La función objeto se la puede expresar
así:
f = aciertos + bonos,
aciertos es el número de salidas de la tabla de verdad
que se cumplen y bonos es un valor que se hace cera
cuando aciertos es menor que el número exacto de sa-
lidas de la tabla de verdad.
Como aciertos es el número de bits de salida de la
tabla de verdad, entonces:
Aciertos = 2ne
* ns
Ne es el número de entradas y ns es el número de sali-
das, mientras bonos (números de WIREs que tiene el
individuo) se puede expresar de la siguiente manera:
bonos = r * c – CO.
Siendo r renglones, c columnas y CO el número de
compuertas que no son WIREs.
Por lo tanto la función objetivo es:
f = 2ne
* ns + r * c – CO
Entonces mediante f se pretendo obtener:
f
Donde:
F (ne) es la función booleana de salida, ne es el nú-
mero de entradas y X (mintermino) es una cadena con
representación canoníca.
La operación básica del A.G. se ilustra a continuación:
Inicio AG
Generar población inicial
Repetir
Evaluar aptitud de los individuos
Seleccionar a los mejores
Re-combinar los genes de los padres elegi-
dos
Perturbar la población con mutaciones
Hasta criterio de parada
Fin AG
Figura 3: Cuadro de la operación Básica del A.G
Fuente: (Miranda, 2005)
2.1.2. LOS OPERADORES GENÉTICOS
Para los operadores genéticos, fueron implementadas
la cruza de dos puntos y la mutación uniforme y alea-
toria. El porcentaje de nutación puede ser Pm
= 1/L,
que es una de las formas recomendadas. También se
puede usar Pm
= 0.5/L (L representa la longitud del
cromosoma) o alternativamente, se puede insertar
otro valor, el cual se encuentra limitado por el rango
(0.001-0.01)
La figura 4 muestra unos ejemplos del funcionamiento
de este operador de cruza.
Figura 4: Matriz de 5x5 con un espacio de 5
Fuente:(Herbert, 2001)
2.1. ELALGORITMO GENÉTICO
Con respecto al AG, Coello. Habla de una versión con
44
elitismo. A continuación se describirán algunas de las
características que bebe tener el AG.
2.2. LA REPRESENTACIÓN
La representación debe ser la binaria y la entera, esto
se hace para demostrar la utilidad de esta última. En
palabras de “aunque se ha argumentado que una re-
presentación binaria proporciona el número máximo
de esquemas, existe evidencia de que en algunos do-
minios tales como el de la optimización numérica, los
alfabetos de cordialidad más alta proporcionan mejo-
res resultados en un periodo de tiempo más corto que
sus contrapartes binarias”. (Coello, 1997)
2.2.1. LA POBLACIÓN INICIAL
La población inicial es n dato de entrada que por de-
fecto esta en 100. El usuario puede realizar el cambio
de este dato.
2.2.2. LA FUNCIÓN DE EVALUACIÓN
Explica Coello que “utiliza una comparación bit por
bit del resultado producido para una cierta combina-
ción de entradas con respecto a las salidas esperadas”
(Coello, 1997). Se penaliza por cada error hallado. Si
el individuo representa un circuito funcional, entonces
la función de aptitud “premia” la solución por cada
WIRE que contenga, a fin de alentar los diseños que
usen menos compuertas.
2.2.3. LA SELECCIÓN
Para el operador de selección, se implementó única-
mente la selección por torneo binaria (realiza la com-
petencia únicamente entre dos individuos).
2.2.4. MECANISMO DE PARO
Respecto a la forma de detener el AG, (Coello, 1997).
“explica que se lo puede hacer por medio del número
de generaciones, ya que no es posible definir el umbral
que puede asegurar que no existe una mejor solución”.
Por lo tanto el programa tiene como parámetro inicial
el valor de 100 generaciones, el usuario puede modi-
ficar este valor. Ya que no tiene complicación alguna
el hacerlo.
2.3. EVALUACIÓN DEL CIRCUITO
La evolución del circuito codificado en la matriz se re-
fiere a la obtención de la tabla de verdad que produce,
configuración de compuertas. La tabla de verdad es
importante debido a la forma en que esta expresada en
entrada al programa y por ello la única manera en que
podernos sacer si la salida de la solución encontrada
de las variables de entrada..
El proceso de evaluación comienza por la columna
que está más a la izquierda de la matriz. Como se ve
en la figura 5 la entrada de las compuertas de cada
celda de esta columna son valores de las variables de
entrada de cada una de las combinaciones.
2.4. EL PROGRAMA
La inserción de datos se la realiza a través de un menú
de interfaz gráfica y el usuario puede modificar los da-
tos (tanto parámetros del Ag, como el tipo de operador
a utilizar) en tiempo de ejecución.
Figura 5: Cruza de Múltiples Puntos
Fuente:(Coello, 1997)
2.5. LA FUNCIÓN DE APTITUD
Para ejemplificar la manera de trabajar de la función
de aptitud se utiliza la tabla de verdad que se muestra
a continuación:
A B C F1
0 0 0
0 0 1
0 1 0
0 1 1
1 0 0
1 0 1
1 1 0
1 1 1
0
0
0
1
0
1
1
0
Figura 6: Tabla De Verdad De La Re-
presentación De Cruza De Puntos
Fuente:(Soria, 2008)
Para este ejemplo se utiliza los siguientes parámetros:
•	Representación binaria.
45
•	Cruza de dos puntos.
•	Mutación uniforme.
•	Probabilidad de cruza = 0.5.
•	Probabilidad de mutación = 1/ L
•	Semilla inicial = 0.273.
•	Con 100 individuos.
•	Usando las compuertas básicas y la XOR.
•	Y un tamaño de matriz de 5*5
El AG genera la población inicial de tal forma aleato-
ria, y la población es evaluada para encontrar al mejor
individuo de la misma. El individuo es una cadena de
ceros y unos con una longitud que se expresa así:
L = 5*5*3*3 = 225 genes
se optó por mostrar su diseño. Cabe aclarar que en el
programa no se genera el diseño cuando el circuito no
es factible, solo se indica al usuario siendo necesario.
Se evalúa al individuo generando una tabla de verdad
después de cada columna iniciando por la que se en-
cuentre más a la izquierda. La tabla de verdad que se
tiene de entrada más a la izquierda.
Figura 7: Circuito Integrado
Fuente:(Coello, 1997)
La tabla de verdad que se tiene de entrada se utiliza
con la primera columna, de la cual se obtiene la tabla
que se utilizara en la siguiente columna y así sucesiva-
mente. Al terminar de recorrer las columnas la última
tabla generada es comparada con la tabla de verdad
de salida. Hay que recordar que la función objeto es:
f = aciertos + bonos
f = 2ne
+ r * c – CO.
El AG incrementara la aptitud del individuo en pro-
porción al número de compuertas WIREs contenidas
en el. Sin embargo, es hasta la generación 766 donde
encuentra el diseño óptimo que consta de cuatro com-
puertas.
2.6. ¿POR QUÉ JAVA?
Java fue creado por James Gosling, Oatric Naugton,
Chris Warth, Ed Frank y Mike Sheridan en Sun Mi-
crosystems en 1991.
Java surge por la necesidad de contar con un lenguaje
de programación que fuera independiente de la pla-
taforma, permitiendo generar software para diversos
dispositivos electrónicos. La World Wide Web hace
que java se convierta en el lenguaje de programación
más importante para el desarrollo de software para la
internet, ya que la web demanda programas portables.
2.6.1..INDEPENDIENTE DE LA PLATAFORMA
La independencia de la plataforma se refiere a que un
programa en java puede ejecutarse sin importar el sis-
tema operativo de la maquina en particular.
La independencia de plataforma es una de las ventajas
más representativas de Java sobre otros lenguajes de
programación. La meta de Java era “escribir una vez,
ejecutarse en cualquier sitio, en cualquier momento y
para siempre”, el objetivo se alcanzó en gran medida.
2.6.2 SEGURO
La seguridad de Java consta de dos partes. En primer
lugar los apuntadores son eliminado, con esto se pre-
viene el acceso ilegal a la memoria
Y en segundo lugar, el código es analizado por un ve-
rificador de ByteCode, que comprueba el formato de
los fragmentos de código y aplica un probador de teo-
remas para detectar fragmentos de código ilegal antes
de ser ejecutado por el intérprete.
Figura 8: Esquema de la portabilidad de los progra-
mas hechos en java
Fuente:(Herbert, 2001)
Con esto se tiene la certeza de que el programa en eje-
cución no tendrá virus y el usuario podrá utilizarlo con
toda tranquilidad.
46
2.6.3 ROBUSTO
Java es considerado un lenguaje robusto y confiable,
gracias a las siguientes características que se muestra:
•	Validación de tipos
•	Validación del apuntador NULL
•	Límites de un arreglo
•	Manejo de memoria
Aunque este último punto es considerado inapropiado
porque es proceso de recuperar memoria ya no utili-
zada puede llevar mucho tiempo, y además puede no
ser aceptable si se invoca por el sistema en un momen-
to crítico de la aplicación; es posible tener un control
al respecto, puesto que Java al incluir soporte para la
programación concurrente, le permite al programador
la oportunidad de decidir cuándo disparar la recolec-
ción basura.
3. CONCLUSIONES
Se cumplió con el objetivo general de mejorar la
implementación para obtener diseños de circuitos
óptimos al poder manipular parámetros y operadores
del AG y así observar su comportamiento en el diseño
mostrado.
Se logró cumplir también al obtener soluciones a ni-
vel de compuertas lógicas (AND, OR, NOT, NAND,
NOR y XOR), utilizando las técnicas de los algorit-
mos genéticos de esta manera este trabajo de artículo
aporta con soluciones óptimas en menores cantidades
de tiempo.
También es posible concluir que el Pm aporta me-
jores resultados con un valor de 0.5/L (donde L es la
longitud del cromosoma).
Se observa que el desempeño del AG en la búsqueda
de soluciones factibles depende de la complejidad del
problema a resolver. Sin embargo, si se llega a encon-
trar circuitos óptimos. Aunque la representación bina-
ria supera a la representación entera en cuanto al nú-
mero de soluciones factibles y optimas, la codificación
entera le permite trabajar el AG tres veces más rápido
que si se utilizara la binaria por eso se considero
4. REFERENCIAS BIBLIOGRAFÍCAS
Amas, C. (1960). Introduccion a los Algoritmos Gene-
ticos . Mexico.
Boole, G. (1860). A Triese on the Calculus of Infinte .
Reino Unido. Cork.
Boole, G. (1954). An Investigaion of the Laws of
Thought, on Which Are founded the Mathe-
matical . New York: Dover Publisher.
Coello, C. (1997). Taller de Aprendizaje. Mexico.
Espinar, C. (1938). A symbolic analysis of realy and
switching circuits. Estados Unidos : Transac-
tions of the AIEE.
Goldberg, D. (1989). Genetic Algorithms inSearch
Optimization and Machine.Scotland: Edin-
burgh .
Herbert, S. (2001). Java 2:Manual de referencia y
Aplicaciones. España: mcGraw Hill.
Kalganova, T. (2000). Envolvable Hardware Design
of Combinational. Scotland : Napier Univer-
sity.
Koza, J. (1992). Genetic Programing of Java New.
Massachusetts: Longman Edit Inc.
Lopez, I. G. (2000). Obtencion de la forma de la Su-
perficie Esferica a apartir de radios de Cur-
vatura Locales. Mexico: Universidad Tecno-
logica de Mixteca.
Miranda, G. (2005). Manual de Java,Principios Ba-
sicos y un poco de Teoria . Recuperado de
http://server2.ok.cl/java/index.html
Morris, M. (1987). diseño digital . Mexico: prentice
hall.
Soria, A. (2008). Algoritmos y Capacitores en el siglo
XXI.Madrid, .España.
47
EL DESPLAZAMIENTO DE LA CAPACIDAD DE PENSAMIENTO HUMANO
Escobar Mamani Jason Maximiliano, Mamani TiconaYecid Israel, Quispe Matta Nora Lizeth
nojason06@gmail.com, guitargod720@gmail.com, lin.q.nora.21@gmail.com
Universidad Mayor De San Andrés
Carrera De Informática
Gramática Española
RESUMEN
Lo que en un tiempo pasado se creíaficciónhoy es una
realidad, la idea de una inteligencia artificial capaz de
imitar el comportamiento neurológico de un ser hu-
mano, al igual que la historia evolutiva de las compu-
tadoras, inteligencia artificial como rama del desarro-
llo de la informática se ha desarrollado al punto de una
realidad inesperada.
Si bien en un tiempo pasado la idea de reducir el tiem-
po de razonamiento del ser humano se creía que sería
un gran avance para mejorar el aprendizaje del ser hu-
mano hoy en día quizá resulte ser como un arma de
doble filo.
Palabras Clave: Cerebro, Cognitivo, Chino hip, De-
sarrollo, Futuro, Humano , Inteligencia artificial, Ma-
quina, Mente, Pensamiento.
ABSTRACT
What in the past was believed to be an idea today is a
reality, the idea of an artificial intelligence capable of
mimicking the neurological behavior of a human be-
ing, as well as the evolutionary history of computers,
artificial intelligence as a branch of computer science
has developed to the point of an unexpected reality.
While in a past time the idea of reducing human rea-
soning time was believed to be a breakthrough to im-
prove human learning today may prove to be a dou-
ble-edged sword.
Keywords: Brain, Cognitive, Chip, Development, Fu-
ture, Human, Artificial intelligence, Machine, Mind,
Thought.
1.INTRODUCCIÓN
La humanidad si bien con el avance tecnológico ha
resultado beneficiado de ello en algunos aspectos, tam
bién ha sido afectada por ese mismo aspecto en cuanto
a su capacidad de pensamiento.
Lo que en un tiempo atrás era considerado una fábula
de tipo religioso asiendo aluvión a la cita bíblica del
libro de Daniel capitulo 12 verso 4 “Pero tú, Daniel,
cierra las palabras y sella el libro hasta el tiempo del
fin. Muchos correrán de aquí para allá, y la ciencia se
aumentará.”, lo hoy en día se ha convertido en una
realidad visible, una tecnología capaz de reemplazar
la capacidad única de pensamiento humano, la necesi-
dad del ser humano de pensar más rápido y en menos
tiempo a provocado que el hombre desarrolle nuevas
innovaciones tecnológicas que cubran estas necesida-
des.
La tecnología actual en el capo de la inteligencia ar-
terial nos llevara a tener menos capacidades de pen-
samiento y razonamiento, quizá en un futuro no muy
lejano la inteligencia artificial pueda ser más avanzada
a la inteligencia humana.
2.	 DESARROLLO
La Inteligencia Artificial fue introducida en la comu-
nidad científica en el año 1950 por el inglés Alan Tu-
ring en su artículo “Maquinaria computacional e inte-
ligencia”, en dicho artículo Turing trato de responder
la siguiente pregunta: ¿pueden las maquinas pensar?;
la intención de Alan Turing era eliminar la distinción
entre inteligencia natural e inteligencia artificial.
En el congreso de Darthmounth, del año 1956, se lle-
gó a la definición de las presuposiciones básicas del
núcleo teórico de la inteligencia artificial:
•	 Reconocimiento de que pensamiento puede ocu-
rrir fuera del cerebro, en máquinas.
•	 La presuposición de que el pensamiento puede ser
comprendido de manera formal y científica.
48
•	 La presuposición de que la mejor forma de enten-
derlo es a través de computadoras digitales.
Algunos investigadores se dedicaron al estudio del
aprendizaje en las máquinasy a los procesos de reco-
nocimiento de patrones visuales. Como resultado se
consigue diseñar el primer programa capaz de apren-
der por experiencia, basado en los estudios sobre
memoria asociativa se construyó la primera máquina
“inteligente” capaz de aprender y memorizar.La para-
doja era que la computadora podía resolver complica-
dísimas operaciones matemáticas, pero no podía pen-
sar. Pero al reproducir en forma mecánica funciones
propias del cerebro, se pueden averiguar cosas que no
sabemos sobre nosotros mismos y podría resultar ser
contra producente.
La inteligencia artificial en los dominios cognitivos
intenta comprender el funcionamiento de nuestro ce-
rebro y sus funciones cognitivas (razonar, oír, hablar,
o incluso emociones) emulando dichos procesos con
modelos computacionales. Se crea una nueva ciencia
llamada Ciencia Cognitiva.
Minsky es considerado uno de los padres de la inte-
ligencia artificial (IA). Fue uno de los fundadores del
laboratorio de IA del Instituto de Tecnología de Mas-
sachusetts y en 1986 publicó una obra fundacional en
el campo de la ciencia cognitiva, La sociedad de la
mente. Al igual que Copérnico, que en su momento
detuvo al Sol y puso en marcha la Tierra para sorpresa
de los hombres, Marvin Minsky se ha propuesto qui-
tarle ciertas vendas de los ojos a muchos de sus con-
temporáneos. ¿Cómo puede surgir la inteligencia de
algo que no es inteligente?, se pregunta, refiriéndose
al cerebro humano. ¿Cómo es posible que un cuerpo
aparentemente sólido albergue algo tan sutil, incorpó-
reo, como una idea?, insiste. Minsky pasó cincuenta
años de su vida investigando el mecanismo de la men-
te. Si bien el cerebro humano es muy complejo puede
llegar imitarse con los avances tecnológicos.
En el lenguaje común de los científicos cognitivos
se volvía pertinente hablar de inteligencia o de pen-
samiento en el comportamiento mecánico de un or-
denador. Esto trajo dos consecuencias que son a la
vez la clasificación de los dos tipos generales de in-
teligencia artificial que se promulgaron: por un lado,
la inteligencia artificial débil buscaba simplemente la
utilización de la instrumentaría tecnológica para el
estudio de las facultades cognoscitivas humanas. En
cambio, la inteligencia artificial fuerte explicitaba un
paralelismo real y no sólo de naturaleza análoga entre
la inteligencia artificial y la humana. Para ellos, la tec-
nología de la inteligencia artificial era una explicación
de lo que ocurría realmente en la cognición humana,
y por lo tanto, la dirección de comparación tendría un
movimiento de retorno, es decir, así como primero se
atribuyó a la máquina facultades humanas, ahora se
definía al hombre a partir de las facultades de la má-
quina.
Lo que para el ser humano puede resultar un gran be-
neficio, quizá en un futuro no muy lejano tenga conse-
cuencias no muy positivas, el físico Stephen Hawking
dijo lo siguiente: “La inteligencia artificial augura el
fin de la raza humana”, sin embargo, también afirma
que hay maneras de lidiar con estos retos. “No vamos
a dejar de progresar, tampoco vamos a revertir (lo que
hemos progresado), así que tenemos que reconocer los
peligros y controlarlos. Soy un optimista, creo que lo
podemos lograr”, dijo.
Sin embargo hoy en dia la sociedad se a convertido
en seres potencialmente dependientes de la tecnolo-
gía, como ejemplo mencionemos que Sólo estar cerca
de tu teléfono inteligente puede ser suficiente para re-
ducir tu poder cerebral, incluso cuando está apagado,
de acuerdo con un estudio, de la Escuela de Negocios
McCombs de la Universidad de Texasen Austin, por
lo que es posible que desees alejarte un poco de él en
el futuro. La investigación muestra la forma en que
nuestros teléfonos inteligentes se han convertido en
una fuente constante de distracción, ya sea que los uti-
licemos realmente o no.
El profesor de McCombs, Adrian Ward, y los coau-
tores realizaron experimentos con casi 800 usuarios
de teléfonos inteligentes en un intento de medir, por
primera vez, lo bien que la gente puede completar las
tareas cuando tienen sus teléfonos inteligentes cerca
incluso cuando no los usan. Los resultados aseguran
que la presencia de un teléfono inteligente reduce la
capacidad cognitiva disponible y deteriora el funcio-
namiento cognitivo, a pesar de que las personas sien-
tan que están prestando toda su atención y enfoque a
otra tarea. “Vemos una tendencia lineal que sugiere
que a medida que el teléfono inteligente se vuelve
más visible, la capacidad cognitiva disponible de los
participantes disminuye. Tu mente consciente no está
pensando en tu teléfono inteligente, pero ese proceso,
el proceso de exigir que no pienses en algo, utiliza al-
gunos de sus limitados recursos cognitivos, y se con-
vierte en una fuga en tu cerebro”.
En otro experimento, los investigadores analizaron la
dependencia de un teléfono inteligente de un individuo
49
o qué tan fuertemente siente una persona que necesita
tener un teléfono inteligente para superar una capaci-
dad cognitiva típica afectada por el día. Obviamente
los resultados mostraron que los participantes son su-
mamente dependientes a sus teléfonos y más cuando
su aparato se encontraba en el escritorio o dentro de
su bolsa. Ward y sus colegas también encontraron que
no importaba si el teléfono inteligente de una persona
estaba encendido o apagado, o si estaba boca arriba o
boca abajo, tener un teléfono inteligente a la vista o
de fácil alcance reduce la capacidad de una persona
para concentrarse y realizar tareas porque parte de su
cerebro está trabajando activamente para no utilizarlo,
lo que corrobora la reducción de la capacidad mental
del ser humano.
Si bien el ser humano haciendo mal uso de la tecno-
logía se ha provocado a si mismo un deterioro en su
capacidad cerebral hoy en día se ha desarrollado una
nueva tecnología capaz se imitar el comportamiento
del cerebro humano, encabezado de un artículo publi-
cado por soluciones Intel donde dice textualmente:
“INTEL PRESENTA LOIHI, EL CHIP QUE IMITA
EL CEREBRO HUMANO”. (Castillo, O. (28 de sep-
tiembre de 2017)).
El nombre de este chip es Loihi, y su base, a diferencia
de los chips tradicionales, es la computación neuro-
mórfica, tecnología que le permite aprender y realizar
conclusiones sin previas instrucciones o programacio-
nes por parte de los humanos.
Loihi, es capaz de aprender del entorno que la rodea,
leer bases de datos de cualquier tipo y no necesita al-
guien que le haga mantenimiento ya que evoluciona
de manera autónoma gracias a su propia inteligencia
artificial.
Este avance científico sería el principio para relegar la
capacidad cognitiva del ser humano.
“Intel está tomando otra dirección con un chip experi-
mental llamado “Loihi”. En lugar de confiar en la po-
tencia bruta de la computación, utiliza una tecnología
experimental llamada “nueromórfica” que es el mode-
lo bajo el cual opera el cerebro humano.”. (Castillo, O.
(28 de septiembre de 2017)).
Figura 1 LOIHI
Fuente: (Intel ,2017)
Los primeros 6 meses con Intel Loihi, los científicos
han demostrado un aprendizaje más de un millón de
veces más rápido en comparación con otras redes
neuronales con potenciales comunes para la activi-
dad eléctrica, haciendo esta evaluación con el número
total de operaciones necesarias para lograr una cierta
precisión en la resolución de problemas relacionados
con el reconocimiento de dígitos utilizando la base de
datos MNIST.
Intel Loihi emplea muchos menos recursos para la
misma tarea comparado con otras tecnologías de redes
neuronales de aprendizaje.
El chip Loihi de Intel tiene mil 24 neuronas artificia-
les, o 130 mil neuronas simuladas con 130 millones
de conexiones sinápticas posibles. Eso es un poco más
complejo que el cerebro de una langosta, pero muy
lejos de nuestros 80 mil millones de neuronas.
Los cerebros humanos trabajan transmitiendo infor-
mación con pulsos o picos, fortaleciendo conexiones
frecuentes y almacenando los cambios localmente en
las interconexiones de sinapsis. Como tal, las células
cerebrales no funcionan solas, porque la actividad de
una neurona afecta directamente a otros - y grupos de
células que trabajan en concierto conducen al aprendi-
zaje y la inteligencia.
Mediante la simulación de este comportamiento con
el chip Loihi, puede (en teoría) acelerar el aprendiza-
je de la máquina, mientras que reduce los requisitos
de energía de hasta mil veces. Una ventaja adicional
es que todo el aprendizaje se puede hacer en el chip,
en lugar de requerir enormes conjuntos de datos. Si
se incorporan a una computadora, tales chips también
pueden aprender cosas nuevas por sí mismos, en lugar
de permanecer ignorantes de las tareas que no se le
han enseñado específicamente.
50
Estos tipos de chips nos darían el tipo de comporta-
miento que esperamos de las Inteligencias Artificiales
como robots y otros dispositivos que podrán aprender
a medida que interactúan con los humanos. El chip de
prueba tiene un enorme potencial para mejorar apli-
caciones automotrices e industriales, así como robots
personales asegura Intel. (Castillo, O. (28 de septiem-
bre de 2017)).
Figura 2 CAPACIDADES CEREBRALES
Fuente: (global news ,2017)
Con el texto citado es oportuno mencionar lo que dijo
el reconocido doctor científico cognitivo también con-
siderado uno de los padres se la inteligencia artificial
Marvin Minsky: “La inteligencia artificial nos recuer-
da que no es una gran cosa ser una persona”. Si bien
en un tiempo pasado resultaba complicado entender el
comportamiento humano hoy eso quedo en el pasado
con este avance científico en el área de la inteligen-
cia artificial podría ser posible relegar las funciones
humanas, este desarrollo tecnológico como bien lo
venimos argumentando puede ser una amenaza para
la humanidad.
El reciente desarrollo de Intel construirá los chips
usando su tecnología de procesamiento de 14 nanó-
metros y se lanzará el primer modelo de prueba en
noviembre.
Pero también es necesario mencionar los aportes que
ha realizado la inteligencia artificial en bien de la so-
ciedad como un ejemplo cabe mencionar lo que se pu-
blicóen un artículo del periódico el comercio donde
se menciona textualmente: “Nuka, la foca robot que
mejora la salud de los ancianos”. Este desarrollo so-
cial fue logrado con el uso de inteligencia artificial,
según su creador, “Nuka permite reducir los niveles de
ansiedad y tristeza de los pacientes de la tercera edad”.
“Nuka es capaz de atender con su mirada a quien le
habla incluso cuando se le cambia el nombre sin avi-
sar gracias a su sistema de inteligencia artificial in-
corporado.” este aporte científico fue desarrollado por
científicos pensantes con la motivación de ayudar a la
sociedad, lo negativo de esto surge cuando esa misma
sociedad se encierra a ser solo usuarios en lugar de ser
creativos.
“En una entrevista en la BBC, a través de la voz arti-
ficial con la que se comunica, ha expresado su preo-
cupación por el desarrollo futuro de la inteligencia ar-
tificial y advierte que podría destruir a la humanidad.
Afirma esto a pesar de que se expresa a través de un
sintetizador de voz alimentado por un ordenad Intel,
es partidario y usuario de la tecnología puntera y cree
que hasta ahora ha prestado unos relevantes servicios
al hombre. Pero su mirada va hacia el futuro: “El de-
sarrollo de una completa inteligencia artificial podría
traducirse en el fin de la raza humana”. El físico, que
se declara ateo, vaticina que una IA enormemente de-
sarrolla “podría decidir rediseñarse por su cuenta e
incluso llegar a un nivel superior”. La raza humana se
vería desbordada: “Los hombres, que están limitados
por una evolución biológica, no podrían competir”.
(Anónimo. (diciembre de 2014)).
A si como también existen algunos peligros o riesgos
en la I.A., a principios de enero de 2015, cerca de
700 científicos especializados en áreas tecnológicas
firmaban una carta abierta alertando de los peligros
de la inteligencia artificial  (IA). Han sido muchas
las reacciones a este escrito y no han sido pocos los
escenarios catastróficos descritos, más propios de la
ciencia ficción, que alertan sobre de una revolución
de las máquinas y la extinción de la humanidad. Un
claro ejemplo es la película “Terminator”, “Yo robot”,
que a pesar de solo ser películas de ciencia ficción nos
muestran una posible realidad futura.
Como referencia cabe mencionar lo dicho por el di-
rector del Instituto de Inteligencia Artificial de Barce-
lona (IIIA-CSIC), Ramon López de Mántaras agrega
además las armas autónomas como amenaza. “Es muy
preocupante el desarrollo de la robótica inteligente
con la finalidad de disponer de robots soldados, ya
que para un robot es casi imposible distinguir entre un
civil inocente y un combatiente”, subraya el premio
nacional de Informática 2012 y firmante del manifies-
to.
Así como la inteligencia artificial a aportados grandes
beneficios en favor de la sociedad existe la posibilidad
de peligros a futuro en contra de la misma sociedad,
ya sea por fallas tecnológicas o por excesivo desarro-
llo tecnológico que provoque relegar al ser humano.
51
3.CONCLUSIÓN
En un futuro no muy lejano la sociedad humana po-
dría contar con un pequeño grupo de personas poten-
cialmente pensantes y un numeroso grupo de personas
que dejaron de razonar y pensar para dejar ese trabajo
la inteligencia artificial.
La sociedad joven se ha adaptado fácilmente a la tec-
nología que dispone a la mano, con el fin de reducir
el tiempo las de actividades habituales básicas como
realizar operaciones aritméticas, leer y otros, activida-
des que aumentan la capacidad neuronal en el cerebro,
la inteligencia artificial dañaría el potencial que tie-
ne el ser humano en cuanto a su desarrollo cognitivo.
científicos para no llegar a un futuro dominado, que
tanto puede llegar a avanzar la ciencia, será posible
que estos desarrollos científicos puedan aportar a la
autodestrucción de la humanidad así comolo afirma el
reconocido físico Stephen Hawking.
La humanidad estaría frente a una sociedad domina-
da por la inteligencia artificial, o la humanidad podría
limitar sus desarrollos Es posible que en un futuro la
inteligencia artificial sea tan desarrollada que los mis-
mos robots tengan la capacidad de desarrollar senti-
mientos, ética, moral y ser capaces de razonar por si
mismos.
4.	 REFERENCIA BIBLIOGRAFICA
Anónimo. (Enero del 2016).Nuka, la foca robot que
mejora la salud de los ancianos. El comer-
cio. Recuperado de: https://www.google.
com/amp/s/elcomercio.pe/amp/tecnologia/
robotica/nuka-foca-robot-mejora-salud-ancia-
nos-268307.
Anónimo. (Septiembre de 2017). La amenaza real
se llama inteligencia artificial. Diario de
Sevilla. Diario. Recuperado de: https://
www.diariodesevilla.es/opinion/tribuna/
amenaza-real.llamada-inteligencia-artifi-
cial_0_1173483099.html.
Anónimo. (Septiembre de 2014). “El desarrollo de
una completa inteligencia artificial podría.
Protestante digital. Recuperado de:http://
protestantedigital.com/ciencia/34633/La_in-
teligencia_artificial_podria_aniquilar_al_
ser_humano_segun_S_Hawking
Anónimo. (03 de octubre 2017) Intel promociona
Chip inteligente como el cerebro huma-
no. Recuperado de:http://tecnomagazine.
net/2017/10/03/intel-chip-inteligente-co-
mo-cerebro-humano/
Anónimo (13 de octubre de 2017).Intel Loihi: Ca-
pacidades cerebrales imitadas por un chip.
Recuperado dehttps://www.globalnews10.
com/intel-loihi-capacidades-cerebrales-imi-
tadas-chip
Castillo, O. (28 de septiembre de 2017). INTEL PRE-
SENTA LOIHI, EL CHIP QUE IMITA EL
CEREBRO HUMANO. Recuperado de:
http://www.telcelsoluciones.com/articulos/
intel-presenta-loihi-el-chip-que-imita-el-ce-
rebro-humano
Fernadez,A.,Garcia,M.,Gonzales,E., y Tomé,S.(julio
de 2016).Una perspectiva de la inteligencia
artificial en su 50 aniversario.(p.p.1- 447
).España:.
Cameron, J.(Director).(1984).Terminator [Ciencia
Ficción].Estados Unidos:Euro Film Fun-
ding.
Mayberry, M. (25 de septiembre de 2017)Intel’s New
Self-Learning Chip Promises to Accelerate
Artificial Intelligence. Recuperado de:ht-
tps://newsroom.intel.com/editorials/inte-
ls-new-self-learning-chip-promises-accele-
rate-artificial-intelligence
Smith,W.(Productor)y Proyas, A.(Director).(2004).Yo
Robot.[Ciencia ficción].Estados Unidos:O-
verbrookEntertainment.
Wayra,F.(16 de febrero de 2015).verdaderos peligros
de la inteligencia artificial.lavanguardia. Re-
cuperado de:
http://www.lavanguardia.com/tecnologia/innova-
cion/20150206/54425888190/peligros-inte-
ligencia-artificial.html.
Shukman, D. (19 enero 2016).Stephen Hawking: la
humanidad está en riesgo y muchos de los
peligros los hemos creado nosotros mismos.
BBC. Recuperado de: http://www.bbc.com/
mundo/noticias/2016/01/160119_stephen_
hawking_peligro_gtg
52
RESUMEN
El término “Wearable” es una palabra de significado
literal “Portable o Ponible”. La mayor referencia es
hacia el conjunto de aparatos y dispositivos electró-
nicos que se incorporan en alguna parte de nuestro
cuerpo interactuando de forma continua con el usua-
rio y con otros dispositivos con la finalidad de realizar
alguna función concreta Así la tecnología Wearable es
integrante de la rama de la electrónica que está dise-
ñada para ser vestida, bien puede ser llevada en una
prenda de vestir o en un dispositivo aleatorio con un
propósito y funcionalidad diferente de los objetos que
siempre están a nuestro entorno. El desarrollo Weara-
ble es directamente dedicada a la electrónica de con-
sumo, es aquel dispositivo electrónico que se lleva so-
bre, debajo o incluido en la ropa relacionado con “El
Sistema de Internet de las Cosas”, que se refiere a la
interconexión digital de objetos cotidianos relaciona-
dos con internet, el termino de internet de las cosas se
considera una parte de una red de objetos tangibles re-
lacionados con la electrónica, software, sensores y la
conectividad que permite la comunicación entre otros
dispositivos con el usuario sin la intervención huma-
na. La característica más importante de la Tecnología
Wearable es su aplicación en tiempo real, y la capa-
cidad de conectividad inalámbrica, en los diferentes
dispositivos los cuales nos permiten ingresar diferen-
tes tipos de información que serán almacenados en la
memoria local, lo cual hará de cada dispositivo único
para el portador.
Palabras clave: Tecnología vestible, ropa inteligen-
te, pulseras de actividad,
ABSTRACT
The term “Wearable” is a word of literal mean-
ing “Portable or Ponible”. The greatest reference is
to the set of electronic devices and devices that are
incorporated into some part of our body interacting
continuously with the user and other devices in order
to perform some specific function. Thus the Wearable
technology is part of the branch of electronics that
is designed to be worn, or can be worn in a garment
or a random device with a purpose and functionality
different from the objects that are always around us.
The Wearable development is directly dedicated to
consumer electronics, it is the electronic device that
is worn on, included or under clothing related to “The
Internet System of Things”, which refers to the digital
interconnection of everyday related objects with inter-
net, the internet term of things is considered a part of a
network of tangible objects related to electronics, sof-
tware, Sensors and connectivity that allows commu-
nication between other devices with the user without
human intervention. The most important feature of
Wearable Technology is its real-time application and
the ability of wireless connectivity in different devices
that allow us to enter different types of information
that will be stored in the local memory, which will
make each device unique to the Porter.
Keywords: Wearable technology, smart clothes,
activity wristbands,
1. INTRODUCCIÓN
A lo largo de la historia se nota claramente el avance
tecnológico que hizo que las personas ganaran el
control sobre la naturaleza y construyeran una existen-
cia civilizada. Gracias a ello incrementaron la produc-
ción de bienes materiales y de servicios que reduje-
ron la cantidad de trabajo necesario para fabricar una
gran serie de objetos, la tecnología es la herramienta
utilizada para hacer las cosas más cómodas y accesi-
bles para la humanidad, el crecimiento respecto a la
producción de nuevas cosas que se adaptan a nuestro
diario vivir llega a ser muy notorio si nos pondríamos
a clasificar la evolución de las mismas, el futuro so-
ñado cada vez se aproxima más al presente e invade
de forma natural como funciona el mundo de hoy, los
wearables son la nueva tecnología que tendrá un gran
impacto en la vida de las personas y cambiara el ritmo
de cómo funcionaban las cosas hasta ahora.
¿Qué es un wearable? Una nueva palabra que definirá
ELECTRÓNICA, DISEÑO, DESARROLLO, Y FABRICACIÓN DE
DISPOSITIVOS PORTABLES EN LA TECNOLOGÍA WEARABLE
Limachi Tapia Guillermo, Mamani Sosa Jorge Luis, Claros Choquemisa Cesar Raymundo
Glimachitapiaguillermo@gmail.com, niden612@gmail.com, c.sar_claros@hotmail.com
Universidad Mayor de San Andrés
Carrera de Informática
Gramática Española
53
un nuevo estilo de vida y que afectara de manera muy
global a las personas tal como hizo el teléfono celular
en sus inicios. “Los wearables representan una nueva
generación de dispositivos inteligentes. La tecnología
que hasta ahora encontrábamos en un ordenador o un
Smartphone, de repente la podemos llevar puesta, por
ejemplo, en nuestra muñeca. Hablamos de comple-
mentos conectados con una función tecnológica que
aporta un valor añadido al usuario”. (Buenas razones
para invertir en wearables, s.f.).
Wearables que se podría traducir del inglés como y
siendo utilizado el término de “tecnología vestible”,
es un avance que se pudo lograr en base a sólidos
conocimientos y siendo también un buen ejemplo de
aplicación respecto a internet de las cosas, abarcaría
más que solo tecnología útil y precisa que uno llevaría
fácilmente en objetos de diario vestir, se espera que el
termino correcto a entender es el de “Ponible” ya que
se está invirtiendo y desarrollando nuevas formas de
usar los wearables para un beneficio mayor llevando
sus principios de aplicación en actividades que aún no
podríamos imaginar.
Remontándonos en la historia y cómo surgió esta gran
tecnología podríamos decir que “entendiendo  vesti-
ble solo como aquel dispositivo electrónico capaz de
ser programado por el usuario para realizar acciones
complejas el primero lo inventó Steve Mann al final
de la década de los 70”. (Tecnología vestible, s.f.).
Cuando hablamos de wearables nos referimos a dis-
positivos dotados de inteligencia y conectividad, di-
señados para llevar puestos. La idea es mostrar la ne-
cesidad de incorporar a nuestra rutina diaria hábitos
que nos ayuden a facilitar el manejo de información
y encajar más en la era de globalización de medios
de comunicación siendo los wearables cómodos y de
rápido acceso.
2. DESARROLLO
Los dispositivos vestible o tecnología ponible (del
inglés Wearable technology) son dispositivos electró-
nicos que pueden ser implementados sobre o debajo
de la ropa. Una de sus características es que permite
la multitarea, esto quiere decir que no requiere dejar
la actividad en la que estemos trabajando para poder
utilizarlos y puede actuar como extensión del cuerpo
o mente del usuario.
Los dispositivos vestible como los monitores de acti-
vidad son un buen ejemplo del Internet de las cosas,
puesto que cosas como la electrónica, software, sen-
sores, etc. son mecanismos que permiten a los objetos
intercambiar información a través de Internet.
A pesar de que en la actualidad van ganando popula-
ridad, el intento de introducirlas al mercado de masas
por parte de las empresas Xybernaut y ViA. Inc. tuvo
muy poco éxito.
A partir del año 2001 otras empresas como IBM pre-
sentaron prototipos de dos relojes inteligentes con
Linux como sistema operativo, Eurotech comenzó a
fabricar ZYPAD (figura1).
Un vestible de muñeca, Hitachi lanzo su dispositi-
vo vestible al que llamo Poma, Fossil Inc. anuncio su
Fossil Wrist PDA (figura 2, figura 3).
Figura 1. Dispositivo vestible de muñeca ZYPAD.
Fuente: (recuperado de Wikipedia de https://en.wiki-
pedia.org/wiki/ZYPAD)
Figura 2. Fossil Wrist PDA-Vista de tareas.
Fuente: (Recuperado de https://www.geek.com/
hwswrev/pda/fossil/)
54
Figura3. Fossil Wrist PDA-Vista de notas.
Fuente: (Recuperado de https://www.geek.com/
hwswrev/pda/fossil/)
En la actualidad los dispositivos vestible más usados
son los relojes inteligentes o Smartwatch seguido de
las pulseras de actividad y las gafas inteligentes. Se-
gún su uso estos pueden clasificarse en cinco grandes
grupos. Deporte y bienestar, Entretenimiento, Indus-
trial, Militar y Medicina.
Estos dispositivos tienen un fuerte impacto en el cam-
po deportivo ya que tanto los relojes y las pulseras (fi-
gura 4) permiten recopilar datos ligados a la actividad
física y son los que acaparan mayor franja de mercado
al ser cada vez más accesibles para el gran público.
Figura 4. Smartwatch de la marca LG.
Fuente: (Recuperado de http://www.lgmobile.cl/noti-
cias/los-weareables-smartwatch-smartband/)
Entrenadores, deportistas profesionales, y deportistas
aficionados están cada vez más abiertos a dejar que la
tecnología les eche una mano para optimizar su ren-
dimiento y ayudarles en la prevención de lesiones, ya
que estos dispositivos por pequeños que sean pueden
recopilar y analizar más de 1000 referencias de datos
en un tiempo increíblemente corto y luego transmi-
tirlos a una pantalla en tiempo real, y de esta manera
un personal médico es capaz de monitorizar el rendi-
miento muscular, actividad cardiaca, ritmo de la respi-
ración, etc. Ya existen wearables específicos según el
deporte, desde los populares modelos para “running”
(figura 5), hasta diseños para surfeo, y para deportes
como el futbol y el tenis el uso de estos artículos inte-
ligentes en competiciones es permitido, pero en otros
casos como de la NBA siguen con restricciones.
Figura 5.- Wearable “running”
Fuente: (Recuperado de https://www.slideshare.net/
JoaoBocas/wearable-tech-show-17-wts2017-persona-
lization-the-future-for-health-fitness-and-nutrition)
Utilizado para monitorización de actividad, principal-
mente derivada del uso como podómetro, para contar
los pasos que la persona realiza a lo largo del día.
Por otro lado, en el sector industrial los wearables se
están convirtiendo en un recurso importante para me-
jorar la eficiencia en la iniciativa de la Industria 4.0.
Los wearables tienen un papel importante ya que be-
nefician a los trabajadores en eficiencia, productividad
y seguridad aportando valor a los proceso de fabrica-
ción. En esta iniciativa los productos más utilizados
son los Smart Glasses que permite a los trabajadores
recibir información detallada de las maquinas que se
están utilizando al igual que indicaciones para la re-
paración de averías, y los Smartwatch, en la industria
4.0 tienen utilidades muy variadas como recepción
y emisión de alertas, posicionamiento GPS, también
contribuye a la seguridad y prevención de riesgos.
(Martínez, 2015).
Un producto bastante interesante y que dentro de poco
será utilizado por las empresas es el Proglove, (figura
6) un guante inteligente que ayuda a los trabajadores
en tareas de logística y fabricación. Es un ejemplo de
“trabajador conectado”. Según la empresa que lo de-
sarrolla, este guante utiliza tecnología RFID, motion
tracking y sensores para facilitar las tareas al operario.
Permite realizar escaneos automáticos, documentar la
actividad realizada, ayuda activa en la secuenciación
de tareas, o corregir errores cuando no se está
realizando las tareas en el orden adecuado.
55
Figura 6. Proglove, guante inteligente para la recopi-
lación de datos.
Fuente: (Recuperado de http://www.ainia.es/insights/
wearables-tecnologias-relevantes-para-la-indus-
tria-4-0-y-el-consumidor/)
3. CONCLUSIÓNES
La tecnología wearable se dio a conocer desde los
años 70 y hasta ahora gracias a la ingeniería electró-
nica, esta clase de productos se hizo comercial y en
nuestra actualidad existen 2 productos ejemplares los
cuales son los lentes desarrollados por google y los
Smartwatch que son sistemas inteligentes “Ponibles”.
Wearable será la nueva tecnología que abarcara los
mercados internos y externos de todos los países, ya
que serán objetos de uso cotidiano orientado a un pú-
blico en general, ya que las empresas que desarrollan
esta clase de tecnología procuran reducir el costo de
cada clase de objeto, con el fin de que sea comerciali-
zado en la economía promedio por lo tanto el objetivo
principal es de brindar la información de tecnología
wearable, pero esta no tiene un solo objetivo y se de-
sarrolla en varias áreas tanto profesionales como de
uso personal.
Esta tecnología vestible ya destaca en el área de me-
dicina con las “Pulseras de Actividad” que registran y
monitorean la salud del usuario, por otro lado se ve
el desarrollo en las plantas de fabricación, donde des-
taca el Smartwatch el cual recepciona y emite alertas
contribuyendo a la seguridad y prevención de riesgos,
estos son objetos inteligentes que ya se encuentran en
el mercado disponible a su compra.
Tomando en cuenta el desarrollo de los wearables y
como se aplicarían en un futuro se tendría un nota-
ble cambio y progreso en el manejo de la información
personal llegando así a mejorar y acelerar a nuestra
sociedad, donde anteriormente se dispuso informa-
ción introductoria respecto a su definición y peque-
ños ejemplos que mostraban tanto su utilización como
beneficio de los mismos, los wearable se introducen
cada vez más en nuestro modo de vida, induciendo así
a probar esta nueva y fabulosa tecnología.
4. REFERENCIAS BIBLIOGRAFICAS
Bernardo, A. (2015) Informacione de desarrollo wea-
rable: wearable tech recuperado el 12 de oc-
tubre de 2017 de http://Blogthinkbig.com
Blog/Industrias 4.0 (Noviembre 11, 2016), Vestidos
de tecnología, Wearable en la industria. Re-
cuperado el 11 de octubre de 2017 de http://
industria4.es/empresa/vestidos-tecnolo-
gia-wearable-industria/
Buenas razones para invertir en wearables (Sin fe-
cha). Recuperado el 12 de octubre de 2017 de
http://wetech.es/es/buenas-razones-para-in-
vertir-en-wearables/
Cruyff, J. (Marzo 10, 2017), Los wearables triun-
fan 	 en la industria del deporte, Barce-
lona, 	 España. Recuperado el 11 de
octubre de 	 2017 de 	https://johancru-
yffinstitute.com/es/blog-	 es/los-weara-
bles-triunfan-industria-del-deporte/
Luque, J. (2016) dispositivos y tecnologías
Wearable, ACTA Articulo. Recuperado el 11
de octubre de 2017 de: http://www.wea-
rabledevices.com http://www.wearablete-
chworld.com http://www.wearable-technolo-
gies.com http://www.wearablesinsider.com
Martínez, J. (2015-2016), Wearable: tecnologías
relevantes para la industria 4.0 y el con-
sumidos, Parque tecnológico de Valencia,
España. Recuperado el 10 de octubre de
2017 de http://www.ainia.es/insights/weara-
bles-tecnologias-relevantes-para-la-indus-
tria-4-0-y-el-consumidor/Miller, M. (Sep-
tiembre 08, 2002), Fossil Wrist PDA-PC
FX2002. Recuperado el 11 de octubre de
2017 de https://www.geek.com/hwswrev/
pda/fossil/
Tecnología vestible. (Sin fecha). En Wikipedia. Recu-
perado el 12 de octubre de 2017 de https://
es.wikipedia.org/wiki/Tecnolog%C3%A-
Da_vestible
Tecnología ponible. (Sin fecha). Recuperado el 12 de
octubre de 2017 de http://wetech.es/
es/que-es-un-wearable-introduccion-la-tec-
nologia-ponible/
56
EL MUNDO DE LAS REDES DE COMPUTADORAS: CARACTERISTICAS Y
TIPOLOGÍA DE RED
Larico Quisbert Cristhian Alejandro, Meneces Zelaya David Josue
crisosem@gmail.com, davidmeneces98@gmail.com
Universidad Mayor de San Andrés
Carrera de Informática
Gramática Española
RESUMEN
Uno de los mayores avances dentro de la ciencia de la
computación son las redes computacionales. Las redes
de computadora, también llamada red de ordenadores
o red informática, es un conjunto de equipos u orde-
nadores interconectados atreves de un enlace físico
(alambrado) o inalámbrico (señales, ondas o cualquier
otro método de trasporte de datos), la cual nos permite
por sus características el compartir información tales
como archivos, recursos y otros, también nos permite
entablar comunicación con otros usuarios.
Palabras clave: Redes, computacionales, computado-
ra, sistema, transmisión, topología, usuarios, ordena-
dores.
ABSTRACT
One of the biggest advances in computer science is
computer networks. Computer networks, also called
computer network or computer network, is a set of
computers or computers interconnected through a
physical link (wired) or wireless (signals, waves or
any other method of data transport), which allows us
to by its characteristics, sharing information such as
files, resources and others, also allows us to establish
communication with other users.
Keywords: Networks, computational, computer, sys-
tem, transmission, topology, users, computers.
1. INTRODUCCIÓN
En este artículo se podrá contemplar las ideas princi-
pales de las redes de computadoras, las características
que presenta, su tipología, una breve reseña histórica a
lo largo de los años, además de cómo está compuesta,
de modo que está dividida y cuáles son los beneficios
que nos brindan las redes de computadora ya que son
muy importantes en nuestra vida cotidiana.
Antes de entrar de lleno a analizar el tema hablemos
sobre el significado del término red de computadoras,
es importante que procedamos a determinar el origen
etimológico de las dos palabras principales que le dan
forma:
Red, procede del latín, concretamente del vocablo
“rete”, que puede traducirse como “malla para pes-
car”.
Computadora, por otra parte, también emana del latín
ya que se encuentra conformada por tres componentes
de dicha lengua: el prefijo “con-“, que significa “com-
pletamente”; el verbo “putare”, que es sinónimo de
“pensar o ponderar”; y el sufijo “-dor”, que viene a
indicar un “agente”.
No debemos confundir un sistema distribuido y red
de computadores, consiste en que en el primer caso
la existencia de múltiples computadores autónomos
es transparente al usuario. En una red de computado-
res, el usuario debe ingresar de forma explícita en una
máquina y ejecutar una determinada acción o proce-
so; en un sistema distribuido, es el sistema operativo
el encargado de ejecutar tal acción, el usuario no es
consciente de la existencia de múltiples procesadores.
En general un sistema distribuido es un caso especial
de red, y la diferencia fundamental está en el sistema
operativo.
Como ejemplo de un sistema distribuido tenemos un
cluster Linux y como ejemplo de una red tenemos un
dominio de Windows.
2. DESARROLLO
2.1. HISTORIA
El primero avance sobre las redes de comunicación
fue en las aéreas tecnológicas, telefónicas y telegrá-
ficas.
Aproximadamente a finales de las décadas de 1960 y
posteriores a los 70 fueron creadas las primeras mini
computadoras.
57
En 1976, Apple introduce el Apple I, uno de los pri-
meros ordenadores personales. En 1981, IBM introdu-
ce su primera PC. A mitad de la década de 1980 las PC
comienzan a usar los módems para compartir archivos
con otras computadoras, en un rango de velocidades
que comenzó en 1200 bps y llegó a los 56 kbps (comu-
nicación punto a punto o dial-up), cuando empezaron
a ser sustituidos por sistema de mayor velocidad, es-
pecialmente ADSL.
2.2. CONCEPTO
Según Rodríguez Sanabria las redes de computadoras
se definen como “Conjunto de dispositivos (computa-
doras, impresoras, scanner, entre otros) interconecta-
dos entre sí que permiten compartir recursos atreves
de un medio de conexión”.
Según Sandra Enríquez “es básicamente un conjunto
de equipos conectados entre sí, que envían y reciben
impulsos eléctricos, ondas electromagnéticas o simi-
lares con el fin de transportar datos”.
La definición más clara de una red es la de un sistema
de comunicaciones, ya que nos permite comunicarnos
(Figura1) con otros usuarios y compartir archivos y
periféricos. Es decir, es un sistema de comunicaciones
que conecta a varias unidades y que les permite inter-
cambiar información.
Se entiende por red al conjunto interconectado de or-
denadores autónomos. (Figura 2)
Se dice que dos ordenadores están interconectados,
si éstos son capaces de intercambiar información. La
conexión no necesita hacerse a través de un hilo de
cobre, también puede hacerse mediante el uso de láser,
microondas y satélites de comunicación.
Actualmente con el avance de la tecnología se fueron
implementando diversas tipologías de redes, cada una
con diversas funciones y beneficios para los usuarios.
Tabla 1. Ejemplos de Red.
Fuente: (Anónimo, 2014)
Figura 1. Ejemplo de comunicación mediante la red.
Fuente: (Anónimo, 2014)
58
Figura 2. Redes.
Fuente: (Anónimo, 2016)
2.3. TIPOLOGÍAS DE RED DE COMPUTADO-
RA
2.3.1 RED BUS.
La red bus se caracteriza por tener una topología la
cual cuenta un único canal de comunicación (denomi-
nado bus, troncal o backbone) al cual se conecta los
diversos dispositivos de esta manera todos los dispo-
sitivos cuentan con el mismo canal para poder comu-
nicarse entre sí.
(Figura 3).
Figura 3. Ejemplo de red bus.
Fuente:( Anónimo, 2009)
2.3.2. RED ESTRELLA.
La red estrella es una red se caracteriza por tener sus
estaciones conectadas directamente en un punto cen-
tral y la comunicación que deseen realizar deberá ha-
cerse necesariamente a través de este. Dado su trans-
misión, una red en estrella activa tiene un nodo central
activo que normalmente tiene los medios para preve-
nir problemas relacionados con el eco. (Figura 4).
Figura 4. Ejemplo de red estrella.
Fuente:( Anónimo, 2009)
2.3.3. RED EN ANILLO.
Cuya topología de red se caracteriza por que cada es-
tación está conectada a la siguiente y la última está co-
nectada a la primera. Cada estación tiene un receptor
y un transmisor que hace la función de repetidor, pa-
sando la señal a la siguiente estación. Se utiliza sobre
todo para redes locales.(Figura 5).
Figura 5. Ejemplo de red anillo.
Fuente:( Anónimo, 2009)
2.3.4. RED EN MALLA
La topología en la red malla una red en la que cada
nodo está conectado a todos los nodos. De esta ma-
nera es posible llevar los mensajes de un nodo a otro
por diferentes caminos. Si la red de malla está com-
pletamente conectada, no puede existir absolutamen-
te ninguna interrupción en las comunicaciones. Cada
servidor tiene sus propias conexiones con todos los
demás servidores. (Figura 6).
59
Figura 6. Ejemplo de red malla.
Fuente:( Anónimo 2009)
2.3.5. RED EN ÁRBOL
Cuya topología de red se encuentran los nodos coloca-
dos en forma de árbol. Desde una visión topológica, la
conexión en árbol es parecida a una serie de redes en
estrella interconectadas salvo en que no tiene un nodo
central. En cambio, tiene un nodo de enlace troncal,
generalmente ocupado por un hub o switch, desde el
que se ramifican los demás nodos. También podemos
notar que es una variación de la red en bus, como dato
adicional cabe hacer notar que la falla de un nodo no
implica interrupción en las comunicaciones lo cual re-
sulta muy beneficioso. En este tipo de red se comparte
el mismo canal de comunicaciones. (Figura 7).
Figura 7. Ejemplo de red árbol.
Fuente:( Anónimo, 2009)
TRAFI-
CO
VINCULO
REQUERI-
DO
COSTO
FACILI-
DAD DE
AÑADIR
EQUI-
POS
DESVEN-
TAJA
MAS
IMPOR-
TANTE
BUS
Fácil
contro-
lar el
tráfico
en
distintos
equipos
y termi-
nales
Fibra ópti-
ca porque
el tráfico
es muy
importante
No es
alto l
costo en
vínculos
ya que
utiliza
uno
solo a lo
largo de
la red
Muy
fácil la
nueva
terminal
debe
“colgar-
se” del
cable
simple-
mente
Depende
de un
solo vin-
culo toda
la red
ES-
TRE-
LLA
Fácil de
contro-
lar su
tráfico
el cual
es muy
sencillo
El par
trenzado es
aceptable
ya que no
hay pro-
blemas de
trafico
Se usa
más
canti-
dad de
cables y
hubs
Depende
de la po-
sibilidad
del hub
(canti-
dad de
puertos)
Se debe
usar un
cable
para cada
terminal
ANI-
LLO
Son
raras las
conges-
tiones
causadas
por el
cablea-
do
Preferente-
mente fibra
óptica
Mode-
rado
Para
conectar
otro
nodo
se debe
paralizar
la red
La falta
de un PC
altera l
red así
como las
distorsio-
nes
MA-
LLA
En caso
de ave-
rías se
orienta
el tráfico
por
caminos
alterna-
tivos
Aunque lo
ideal es la
fibra ópti-
ca, el par
trenzado es
aceptable
Muy
alto
debido
a la
redun-
dancia
en ca-
bleado,
bridges,
routers,
pat-
cheras
mode-
rado
Quizá
el más
com-
plicado
por la
estruc-
tura del
cableado
tan
abun-
dante
Poco
econó-
mica
aunque
costo trae
bene-
ficios
mucho
mayores
Tabla 2. Cuadro comparativo de tipología de red
Fuente: (Anónimo, s.f.)
2.4. OBJETIVOS DE LAS REDES
Las redes computacionales como tal tienen un objeti-
vo muy amplio, una de ellas es el servicio de archivos
y el compartir recursos entre otros.
En el ámbito laboral el objetivo de la red es propor-
cionar una interconexión entre ordenadores para así
poder correlacionar información de la empresa.
Cabe mencionar que uno del objetivo es el de pro-
porcionar una alta fiabilidad, ya que podemos contar
con fuentes alternativas de suministro e información
ya que al tener múltiples ordenadores al dejar de fun-
cionar alguno, otro puede encargarse de la tarea del
afectado.
La red computacional también puede proporcionar
medio de comunicación entre usuarios ya sea que se
encuentren a una distancia considerable o muy aleja-
60
da. Con ello indicamos que una red facilita hacer tra-
bajos, compartir información, dialogar en tiempo real
entre usuarios.
El ahorro económico es otro de los objetivos y gran-
des beneficios ya que la información se guarda dentro
de aspectos totalmente virtuales. También el poder du-
plicar información en uno o varios ordenadores lo cual
resulta un gran beneficio económico.
En fin, podemos ver que el objetivo básico de las redes
computacionales son las de compartir recursos. infor-
mación, disponibles para cualquier ordenador que se
encuentre interconectado por medio de la red.
2.5. CARACTERÍSTICAS DE LAS REDES
Las redes tienen diversas características entre las cua-
les mencionaremos las más importantes.
•	 Servicios de archivos. - Los archivos son algo
fundamentales a la hora de manejar las redes, los
usuarios o administradores deben tener un buen con-
trol almacenamiento y protección del mismo.
•	 Compartir recursos. - Los servidores a través
de las redes computacionales pueden compartir re-
cursos tales como archivos, programas y otros a los
dispositivos ligados con los servidos u ordenador.
•	 SFT (Sistema de tolerancia a fallas). - El
SFT es un sistema que actúa en caso de que existan
algunos componentes del ordenador que fallen, así
es que se cuenta con un disco de respaldo donde se
guarda la información del primer disco. pudiendo
usarse el disco de respaldo en caso de fallo del pri-
mero.
•	 Sistema de Control de Transacciones. -
Este es un método que presenta básicamente un plan-
tel de protección de base de datos, mas propiamente
cuando una operación falla al momento de escribir
dentro de una base de datos este sistema deshace la
transacción y la base vuelve a su estado original.
•	 Seguridad. - El o los usuarios adminis-
tradores de la red son los encargados de asignar
derechos y claves de acceso a la red única para cada
usuario con el objetivo único de proporcionar seguri-
dad de información personal de cada usuario.
•	 Acceso Remoto. - La conexión por medio
de líneas telefónicas permite que el usuario pueda
conectarse a lugares alejados con otros usuarios.
•	 Conectividad entre Redes. - La conexión
permite interrelacionar entre redes, la cual es segura
y transparente.
•	 Comunicaciones entre usuarios. - Una
de las características esenciales de las redes es la
comunicación entre usuarios lo cual permite no solo
el dialogo entre los mismos sino también el que se
pueda n compartir archivos y otros.
•	 Servidores de impresoras. - Es un orde-
nador que tiene como objetivo e controlar las im-
presoras conectadas a ella (pueden conectarse cierto
número de impresoras), para ello utiliza la memoria
(en algunos casos especiales se utiliza un software)
para gestionar la cola de impresoras por los trabajos
proporcionados de la red.
•	 Colas de impresión. - La cola de impresión
permite modificar un documento después de pedir la
impresión del mismo.
2.6. FORMAS DE ENLAZAR REDES DE COM-
PUTADORAS
Básicamente se pueden enlazar las redes de computa-
dora de dos formas:
•	 Cableado: Como su nombre indica esta
forma consiste principalmente en la inclusión de
cables que son en de tipo eléctricos (como Ethernet,
HomePNA, power line communication o PCL, G.hn)
y fibra óptica.
•	 Inalámbrico: Esta segunda forma a su vez
como su nombre indica no depende del cableado, su
enlace se da por medio de Ondas de radio.
2.6.1. TECNOLOGÍAS ALAMBRADAS O CA-
BLEADAS
•	 Cable coaxial
•	 ITU-T G.hn, que emplea cables del hogar
(cable coaxial, línea telefónica y líneas de energía).
•	 Cable de par trenzado, es el medio más utili-
zado para todas las telecomunicaciones.
•	 Fibra óptica.	 (Figura 8).
2.6.2. TECNOLOGÍAS INALÁMBRICAS O SIN
CABLES
•	 Microondas terrestres.
•	 Comunicaciones satelitales
•	 Tecnologías de radio (incluye celulares).
61
•	 Comunicaciones ópticas por espacio libre
(FSO, siglas en inglés de free-space óptica). (Figura
9).
Tabla 3. Accesorios para conectar la red.
Fuente: (Anónimo, 2014)
Figura 8. Tipos de cables de conexión a una red.
Fuente: (Anónimo, 2015)
Figura 9. Ejemplo de red inalámbrica.
Fuente: (Anónimo, 2008)
3. CONCLUCIONES
Como pudimos apreciar en el desarrollo del artículo,
las redes de computadora son precisamente una parte
esencial no solo a nivel doméstico sino también en lo
laboral que ayudan a poder comunicarse e intercam-
biar información entre los usuarios.
Denominada como sistema de comunicación las redes
de computadora como ya mencionamos nos facilita
comunicarnos con otros usuarios y compartir archivos
lo cual definimos como intercambio de información.
Además pudimos contemplar los beneficios que nos
ofrece la misma que tiene su base en el nacimiento
de una era de comunicación por medio de una inter-
conexión entre usuarios-ordenadores llamada redes
computacionales.
También cabe mencionar que no todo es bueno en las
redes computacionales, se preguntaran el porqué, ya
que en la actualidad existen los llamados hackers in-
formáticos (los que actúan de forma antisocial) que
van delinquiendo en la red, perjudicando a los usua-
rios, interviniendo en los ámbitos sociales, económi-
cos, laborales, etc.
4. REFERENCIAS BIBLIOGRAFICAS
Alegsa, L. (3 de julio de 2016). Definicion de Red de
Computadoras. Recuperado el 11 de octubre
de 2017, de ALEGSA.ar.com: http://www.
alegsa.com.ar/Dic/red_de_computadoras.
php
Anónimo. (21 de marzo de 2017). Redes informáticas
i. tabla de elementos de una red (1). Recu-
perado el 23 de octubre de 2017, de https://
www.slideshare.net/ferni7/redes-informti-
cas-i-tabla-de-elementos-de-una-red-1
Anónimo. (s.f). Red de computadoras. Recuperado el
11 de octubre de 2017, de monografias.com:
http://www.monografias.com/trabajos5/re-
des/redes.shtml
Anónimo. (s.f.). La gran red de computadoras: cómo
funciona Internet. Recuperado el 17 de octu-
bre de 2017, de Apser: http://www.apser.es/
blog/2015/07/27/la-gran-red-de-computado-
ras-como-funciona-internet/
Casillas, M., & Domiminguez, R. (marzo de 2009).
REDES DE COMPUTADORAS, TIPOS Y
62
TOPOLOGIAS. Recuperado el 11 de octubre
de 2017, de Entradas (Atom): http://redesti-
postopologias.blogspot.com/
Costales, Y. (7 de noviembre de 2013). Red de Com-
putadoras. Recuperado el 11 de octubre de
2017, de EcuRed: https://www.ecured.cu/
Red_de_computadoras
Flores, M. (s.f.). Cuadro Comparativo de redes.
Recuperado el 23 de octubre de 2017, de
MODULO 4: https://modulos1y2.jimdo.
com/subm%C3%B3dulo-2/1er-parcial/cua-
dro-comparativo-de-tipos-de-redes/
Fransisco, O. (s.f.). Redes de computadoras. Re-
cuperado el 17 de octubre de 2017, de:
Mind42:https://mind42.com/public/4ed-
5c86f-86f9-4e99-89b0-998198460b29
Gorgana, L. (s.f). Teoria de Redes de Computadoras.
Recuperado el 11 de octubre de 2017, de :
https://www.oas.org/juridico/spanish/cyber/
cyb29_computer_int_sp.pdf
Henriquez, S. (4 de octubre de 2011). TIPOS DE RE-
DES INFORMATICAS. Recuperado el 23
de octubre de 2017, de GOBIENO TI: ht-
tps://gobiernoti.wordpress.com/2011/10/04/
tipos-de-redes-informaticas/
Pérez, J., & Merino, M. (2014). DEFINICION DE
RED DE COMPUTADORAS. Recuperado
el 11 de octubre de 2017, de Definición.de:
https://definicion.de/red-de-computadoras/
Rodriguez, K. (9 de junio de 2012). Redes de 	
computadora autor karina. Recuperado	
el 23 de octubre de 2017, de Slide Share: 	
https://es.slideshare.net/KarinaSanabria/r	
edes-de-computadora-autor-karina
63
EL OJO DE HALCON Y EL SISTEMA VAR EN FUTBOL
Luis David Ajhuacho Tarquino Vladimir Wilson Hidalgo Quispe Jorge Luis Cori Sirpa
Luisdac7@gmail.com, tekenver97@gmail.com, cori_text@hotmail.com
Universidad Mayor de San Andres
Carrera de informática
Gramatica Española
1 INTRODUCCIÓN
El ojo de halcón (Hawk-Eye) está compuesto por
una red de cámaras de alta resolución situadas en
diversos puntos del estadio que siguen la trayectoria
del balón en todo momento, todos los datos que va
recogiendo el sistema son analizados desde una base
de datos que envía una señal al reloj inteligente del
árbitro cuando el balón ha sobrepasado la línea de
gol. La señal tarda aproximadamente un segundo en
enviarse al árbitro. El sistema VAR en una asistencia
por video donde el arbitro verifica si el balón en
cuyo caso pasara la línea y marcara si fuera gol o
si estuviera fuera del área correspondiente es una
pequeña ayuda para facilitar el trabajo y volver el
futbol mas transparente si goles fantasmaso fuera d
líneas q no correspondan hay acciones en contra de un
juego limpio y sin polemica
1.1PALABRAS CLAVES:
Ojo de halcón, sistema VAR, futbol limpio, asistencia
de video, reloj inteligente
1.2ABSTRACKS:
The hawk eye (Hawk-Eye) is composed of a network
of high-resolution cameras located at various points of
the stadium that follow the path of the ball at all times,
all data collected by the system are analyzed from
a database that sends a signal to the referee’s smart
watch when the ball has passed the goal line. The
signal takes approximately one second to be sent to the
referee. The VAR system in a video assistance where
the referee verifies if the ball in which case the line
passed and scored if it was a goal or if it was outside
the corresponding area is a small help to facilitate the
work and make football more transparent if phantom
goals outside d lines that do not correspond there are
actions against a fair game and without controversy
1.3KEYSWORDS:
Falcon eye, VAR system, clean soccer, video
assistance, smart watch
2DESARROLLO
A partir de 2019 el organismo abrió un período de
ensayos de dos años e instó a sus miembros a formar
parte de una fase experimental, que servirá de mucho
para tomar una decisión definitiva
El ojo de halcón es una potente y precisa tecnología
que se usa en algunos deportes como el tenis para
comprobar la trayectoria y la velocidad de la bola en
algunos de sus lances. Pese a que el ojo humano es
una herramienta muy compleja, casi perfecta, es
posible que no consiga vislumbrar de forma precisa
algunas particularidades que se dan a velocidades
muy elevadas. Por este motivo, en el tenis profesional
se utiliza la tecnología más avanzada para decidir
los lances del juego que el ojo humano no es capaz
de percibir con la precisión necesaria. La tecnología
ojo de halcón va mucho más allá de lo que podemos
observar con nuestros propios ojos.
Figura 1. Fijación de las cámaras en los arcos.
(Fuente KBN next media 2012)
2.1¿Cómo funciona el ojo de halcón?
Este sistema, desarrollado en 2001 por un equipo
de ingenieros de la firma británica Roke Manor
Research, utiliza una red de cámaras de alta
velocidad para seguir los movimientos de la bola en
algunos encuentros de críquet, billar inglés y tenis. 
Los datos sobre su posición, obtenidos por
triangulación, son procesados por un ordenador,
que identifica en cada fotograma los píxeles que
le corresponden. Luego, compara la información
obtenida por al menos dos cámaras en un mismo
instante para calcular en qué punto se encuentra.
64
Con estas variables, genera un gráfico del vuelo de la
pelota sobre la pista. Básicamente, lo que se consigue
con el ojo de halcón es comprobar la trayectoria
de una pelota para ver si ha salido o no del terreno
de juego. Para esto se ponen en funcionamiento  8
cámaras que trabajan a alta velocidad, ubicadas en
los puntos más estratégicos de la cancha. El sistema
establece un cálculo sobre la trayectoria y la velocidad
de la bola, es decir, a qué velocidad se mueve y su bote
sobre la pista. Todo esto lo hace rapidísimo, por lo que
en unos pocos segundos, puede crear unas imágenes
en 3D, repitiendo la jugada. Esto se proyecta en una
pantalla que pueden ver jueces, jugadores y público.
El ojo de halcon enfocado en el futbol
Figura 2. Marcación en el reloj del árbitro
(Fuente marcas de futbol 2015)
El ojo de halcón llegó a mediados del año 2012. Éste
fue aceptado por la Internacional Football Association
Boardya. El funcionamiento, en el fútbol, consiste en
que cada arco hay 7 cámaras, las cuales hacen varias
tomas  para generar una imagen en tres dimensiones.
Al contrario del tenis, que tiene sensores, es que al
público no se le muestra una repetición,  aunque al
árbitro le llegará un mensaje de si fue gol o no.
El balón inteligente, también llamado como el
“goalref”, también interactúa con el ojo de halcón,
ya que en lo que consiste es en dos partes del
mecanismo: el primero es que se instala un dispositivo
magnético  detrás de las porterías  que genera una
especie  de cortina de onda debajo de los tres palos.
Esta frecuencia magnética es baja.
El ojo de halcón está basado en que se instalan arias
cámaras enfocadas en las líneas de meta y sobre todo
especialmente en los arcos donde se ve si el balón pasa
la línea de meta, un ejemplo muy claro es que en el
tenis se utiliza este sistema para ver si la pelota cayo
dentro o fuera de las líneas reglamentarias y lo que
se quiere hacer en el futbol es lo mismo hacer q este
sistema se enfoque en esas partes donde el futbol es
tan polémico y quitar los goles fantasmas goles q no
fueron hasta salidas del balón pór las metas donde
existe tanta controversia y peleas en este deporte,
2.2SISTEMA VAR
La FIFA limita el uso del árbitro asistente de video
a cuatro acciones que pueden cambiar el rumbo del
juego: goles, penaltis, expulsiones y confusión de
identidad en amonestados. Se activa de la siguiente
manera:
Cuando se produce una de las acciones contempladas,
el árbitro principal o el juez de video pueden solicitar
la revisión.
Los jueces de video observan la repetición instantánea
de la jugada e informan de lo que ha pasado al árbitro,
a través del auricular.
El árbitro principal tiene dos opciones: puede aceptar
el criterio de los jueces de video, o ver el video en la
banda y tomar su propia decisión.
El objetivo final no es garantizar una precisión total
en las decisiones arbitrales, sino revertir aquellos
errores humanos que puedan condicionar el resultado.
Gracias a la realización, los asistentes de video pueden
ver la acción polémica desde distintos puntos de
vista y aconsejar al árbitro principal, a quien siempre
corresponde la decisión final. La FIFA recomienda
que la decisión se tome en el menor tiempo posible
para no alterar el ritmo de juego,​en general menos de
un minuto.
Los únicos capaces de solicitar la repetición son
el árbitro y el asistente de video. Si un jugador o
entrenador reclama su uso al colegiado, puede ser
sancionado.
El sistema de detección automática de goles se
mantiene vigente para saber si el balón ha entrado
en la portería,4 años más tarde, el mundial de clubes
volvió a ser el campeonato para probar una nueva
tecnología, en este caso la FIFA probó el sistema VAR
de asistencia por vídeo al árbitro y volvió la polémica.
El nuevo sistema cuenta con una sala de vídeo llena
de asistentes que revisan la acción por televisión una y
otra vez e informa al árbitro a través de los auriculares
de lo que han visto, el árbitro puede confiar en sus
asistentes o parar el partido y revisar la acción él
mismo por televisión.
65
Figura 3 sistemas VOR
(Fuente Mundo Deportivo 2014)
El sistema VOR es una de las partes más esenciales
de este sistema
Donde podemos ver en la figura dos como las personas
están encargadas de verificar y dar la parte al árbitro
de que ocurrió una irregularidad o no o de que si esta
en lo cierto.
El sistema de asistencia arbitral por video (VAR)
volverá a estar mañana a disposición del árbitro en la
revancha de la semifinal de la Copa Libertadores entre
Lanús y River que se jugará en el estadio La Fortaleza.
La tecnología impulsada por la Confederación
Sudamericana de Fútbol (Conmebol) ya fue instalada
en la sede de la semifinal de vuelta y este mediodía
fue presentada por el uruguayo Jorge Larrionda,
integrante de la Comisión de Árbitros
(Extraído de TyC Sport 30 de octubre del 2017)
En este partido que es muy importante en el ámbito de
futbol enAmérica ya se está implementando el sistema
VAR donde si ocurre algún problema la parte técnica
VOR le llama al árbitro para q vea en un monitor
donde se encuentra en el lugar donde está el cuarto
árbitro e ir a verificar o en caso de alguna duda pida
la repetición y se quite la dudad pero hay una regla
estricta solo el árbitro principal puede ver el monitor
ni los jueces d líneas ni el cuarto árbitro pueden ir
a ver, estas son las instrucciones que se le da a los
árbitros para este partido de prueba que se realizara
en el partido de River Plate vs Lannus de argentina
que disputarán el partido de vuelta por la fase de
semifinales de la Copa Libertadores de América que
se realizara el martes 31 de octubre del año 2017 en el
Estadio Ciudad de Lanús, Remedios de Escalada
Figura 4 Monitor del Sistema VAR
(Fuente TyC Sport, 2017)
Polémica sobre la implementación de estos sistemas
Hoy en día es tan problemática la implementación
d estos dos sistemas en el futbol ya que todos los
espectadores están acuerdo y desacuerdo con estos
sistemas ya que hay varios apoyos y comentarios
en contra pero esto es esencialmente para quitar la
polémica que generan varias cosas que después en
los canales deportivos muestran y afirman y hacen
ver q acciones tomadas de goles fueras de líneas
tomadas por los árbitros fueron malas decisiones
esto facilitaría y quitaría polémica a los partidos pero
también los medios de comunicación se quedarían con
menos contenido ya que son los principales en estará
en contra de la implementación de estos, no todos
hay q quedar en claro que si algunas programas están
a favor, viendo por otro lado por parte de la afición
que estaban a favor de estos sistemas ya que no
complicarían a varios equipos y quitarían los errores y
la afición estaría tranquila eso podríamos decir ya que
de todos modos es un deporte muy polémico no solo
por si fue o no gol, es por eso que todo esto está en
una etapa de prueba y lo están empezando a implicar
en los partidos finales de la Copa Libertadores de
América del año 2017
Figura 5 Copa libertadores de America
(Fuente La Tercera, 2017 )
66
2.3. EL OJO DE HALCÓN HA DADO EL
MEJOR EJEMPLO DE CÓMO FUNCIONA
EN LA CHAMPIONS LEAGUE
Marcus Rashford cobró un tiro libre desde la banda
izquierda, el guardameta del conjunto portugués se
confió en un balón que no llevaba peligro, pero no
hizo bien el recorrido y terminó deteniendo el esférico
dentro de su propia portería.
Figura 6 Galería | Champions League
(Fuente, FOX sports 2017 )
Mile Svilar pasó a la historia de la UEFA Champions
League al convertirse en el portero más joven en
debutar en el torneo con 18 años de edad.
El ojo de halcón ha dado el mejor ejemplo de cómo
funciona en la Champions League, el árbitro alemán
Felix Zwayer tuvo que apoyarse de la tecnología para
dar por válido el gol de Rashford a los 64 minutos de
juego.
Las cámaras mostraron el momento exacto en el que
el árbitro recibía en su cronometro la palabra GOAL,
ya que el balón cruzó totalmente la línea de gol. 
2.4. RÉFERI CON OJOS DE HALCÓN (FIFA)
El proveedor designado por la FIFA para la
implementación del VAR es Hawk-Eye, una compañía
de la firma Sony que ya presta el servicio a las ligas
antes mencionadas y además a las de otros deportes:
tenis, automovilismo, hockey sobre grass y sobre
hielo, vóleibol, rugby, snooker, equitación, baloncesto,
cricket, béisbol, bádminton, atletismo, entre otros. 
En el caso del fútbol, el VAR será empleado para
esclarecer cuatro situaciones: goles (determinando
que el balón haya traspuesto completamente la línea
de meta); penales (para asegurar que la decisión de
cobrarlo sea la adecuada); expulsiones; e identidades
confundidas (cuando el árbitro no está seguro de qué
jugador merece la sanción a imponerse).
Figura 7 | Rusia 2018
Fuente: la ciencia juega mundial
Hawk-Eye es la primera firma en recibir la licencia
de la FIFA Goal Line Technology. Básicamente,
consiste en una red de videocámaras —a partir de
7 por arco— instaladas en el techo de los estadios,
sobre y apuntando hacia la cancha, logrando captar el
balón desde diversos ángulos, permitiendo determinar
cuando la pelota ha traspuesto completamente la línea
de gol. En caso de detectar anotación, el sistema
envía automáticamente una señal al reloj del juez. El
sistema combina las imágenes de las siete cámaras
para determinar el tanto, aunque es capaz de hacerlo
incluso si la bola solo es visible en las tomas de dos
cámaras, con precisión milimétrica.
El sistema puede superar no solo las capacidades del
árbitro, sino incluso la precisión de las informaciones
que brindan las televisoras encargadas de las
TRANSMISIONES OFICIALES.
3.1. SALA DE CONTROL OJO DE HALCÓN
En la MLS, el VAR tiene acceso a todos los ángulos
que ofrece la emisora ​​de partido. Mientras IFAB,
el organismo de gobierno internacional a cargo de
las Reglas del Juego, requiere un mínimo de cinco
ángulos para la revisión del video, la MLS tendrá al
menos ocho por cada partido.
Para iniciar una “comprobación”, el VAR presionará
un botón rojo que hace aparecer un cronómetro en
su monitor. En este punto, el árbitro aún no ha sido
contactado, es simplemente una señal visual para el
VAR. Aunque el VAR tiene la capacidad de elegir
ángulos, acercar, ralentizar el metraje o reproducir el
video cuadro por cuadro, ese deber se deja en gran
medida al operador.
Mientras tanto, el asistente vigila el avance del partido
67
en vivo.
En caso de que ocurra otra situación que merezca
revisión, mientras el VAR todavía está evaluando
el caso previo, el asistente tiene un botón verde que
presionará para señalar otro control en cola.
El asistente también utilizará el sistema de mensajes
Slack para comunicarse con los locutores, los medios,
el locutor público y el operador de la tarjeta de
video. Se informará a todas las partes si se inicia una
“revisión” formal, y se brindará una explicación del
resultado más adelante. Y el ángulo decisivo de la
cámara se enviará a los organismos de radiodifusión
y al operador de la placa de video.
¿Demasiada tecnología para el deporte más lindo del
mundo? La única forma fehaciente de saberlo será
verlo en el gramado y en su máxima cita, la Copa
Mundial que arranca en Rusia a mediados de año.
3 CONCLUSIONES
Incluyendo los sistemas de ojo de halcón en todas
las competiciones importantes y el vídeo arbitraje
asistente se terminaría con la mayoría de las polémicas
que llenan las salas de prensa, los programas y diarios
deportivos, una tecnología que ya está y puede ser
aplicada fácilmente. La tecnología que avisa si el
balón ha entrado o no tan solo necesita de 1 segundo
para informar al árbitro.
Esta tecnología mejoró la figura del árbitro que puede
tomar una decisión certera en segundos cuando se
produce una situación conflictiva, no interrumpiría el
juego en la mayoría de situaciones ya que este tipo
de situaciones provocan las protestas masivas de los
jugadores que se puede alargar durante minutos.
Uno de los cambios más importantes que llegarían
al mundo del fútbol gracias a la tecnología serían
las prendas deportivas con cámaras, una tecnología
que nos hace vivir el deporte en primera persona y
que ya ha sido probada en algunos partidos. Una de
las empresas pioneras de este tipo de tecnología es la
española First V1sion que han colocado una cámara
en una camiseta para que nos pongamos en la piel del
futbolista.
Esta revolución llegó a otros deportes con las
cámaras deportivas que han cambiado la visión
de los espectadores creando imágenes realmente
impresionantes.
última canasta del partido estaba dentro de tiempo o
no, ¿por qué no se puede aplicar la tecnología en el
fútbol?
Uno de los motivos principales al rechazo de la
tecnología es que esto supondría una brecha muy
grande entre el fútbol de máxima competición y el
amateur, los millones de jugadores asiduos no tendrían
la oportunidad de arbitrar una jugada por vídeo.
Sistema VAR es una innovación sobre la tecnología
en el futbol muy polémica entre el ámbito deportivo
pero que ayuda mucho a lo árbitros y tales como a los
equipos y a que el futbol sea más transparente.
4.REFERENCIAS BIBLIOGRAFICAS
Diaz.R.(2017, febrero 21).CÓMO FUNCIONA EL
“OJO DE HALCÓN” O “HAWK-EYE” EN
EL FÚTBOL.KBN.Recuperado de http://
kbnmedia.com
Santander.P.(2016,noviembre 13).QUE ES EL OJO
DE HALCON.rahhal.Recuperado de https://
www.rahhal.com/blog
Otazu.G.(2016, marzo 5).El IFAB ACEPTA
INTRODUCIR EXPERIMENTOS DE
ASISTENCIA POR VÍDEO PARA
ÁRBITROS.La FIFA.Recuperado de http://
es.fifa.com/about-fifa/news
Romero.R(2017, abril 21).QUÉ ES Y CÓMO
FUNCIONAELVÍDEOARBITRAJE EN EL
FÚTBOL?.tecnología del futbol.Recuperado
de https://football-technology.fifa.com/es/var
Cazu.B.(2017, abril 20).EXPERIMENTOS CON
ASISTENTES DE VIDEO.La FIFA.
Recuperado de http://es.fifa.com
Cáceres.B.(2017, abril 28).QUE ES LO QUE
NESECITAS SABER DEL VAR?.a-league.
Recuperado de https://www.a-league.com/
news
Sepúlveda.E.(2017, marzo 9).NO MÁS ERRORES?
LOS ÁRBITROS ASISTENTES DE VIDEO
PODRÍAN CAMBIAR EL FÚTBOL
PARASIEMPRE.the guardian.Recuperado de
https://www.theguardian.com/football/2017
Fuentes.R.(2017, septiembre 29).ASÍ FUNCIONARÁ
68
EL VAR AQUÍ.AS.Recuperado de https://
as.com/futbol
García.G.(2017, marzo 28).GRIEZMANN: “CON EL
VAR SE PIERDE UN POCO LO QUE ES
EL FÚTBOL”.Marca.Recuperado de http://
www.marca.com/futbol/seleccion
Serrano.L.(2017, marzo 28).A ESPAÑA EN EL
VAR NO LE GANA NADIE.OK DIARIO.
Recuperado de https://okdiario.com/deportes/
futbol
Lopez.F.(2016 , enero 22).MAYOR USO DE LA
TECNOLOGÍA DE LÍNEA DE GOL.FIFA.
Recuperado de http://www.fifa.com.es/
noticias
Singa.I.(2017, noviembre 1).AUMENTA LA
POLÉMICA POR EL USO DEL VAR
TRAS JUEGO RIVER VS. LANÚS.EL
COLOMBIANO.Recuperado de http://www.
elcolombiano.com/deportes/futbol
Buxeres.L.(2016, diciembre 15).¿QUÉ ES Y CÓMO
FUNCIONA EL VIDEOARBITRAJE EN
EL FÚTBOL?.La vanguardia.Recuperado
de http://www.lavanguardia.com/deportes/
futbol
Brown.H.(2017, octubre 29).TODO LO QUE TENÉS
QUE SABER DEL VAR, LA ASISTENCIA
POR VIDEO EN EL FÚTBOL.la nacion.
Recuperado de http://www.lanacion.com.ar
Johnson.R.(2016 diciembre 17).ZINEDINE ZIDANE
APOYÓ EL USO DE LA TECNOLOGÍA
EN EL FÚTBOL.El Tiempo.Recuperado de
http://www.eltiempo.com/deportes/futbol-
internacional
Sandoval.O,(2017, octubre 22), Champion league:
El mejor ejemplo de como funciono el ojo de halcon.
Fox.Sports.Recuperado de: http://www.fox-
deportes,com
Huerto.H.(2017.octubre.12). Un arbitro con ojos por
todos lados, ¿arruina el mundial?.nmas1.
Recuperado de: http://nmas1.org/blog/2017
69
HACKEO: UN ARMA DE DOBLE FILO
Arteaga Gutierrez Diego Alejandro
alpha01.da@gmail.com
Universidad Mayor de San Andrés
Carrera de Informática
Gramática Española
RESUMEN
Como criaturas racionables, los humanos siempre
hemos buscado facilitar nuestro trabajo a través del
tiempo.Lo que nos ha llevado, de crear la rueda, a los
grandes avances tecnológicos de hoy. Gracias al fácil
acceso al internet junto con esa comodidad que tene-
mos, podemos llegar a colgar información en la red
que no siempre está protegida contra otros individuos
.Los cuales pueden usar nuestra información personal
a su antojo sin nuestro consentimiento. Saber cómo
evitar ser víctima de un hacker es algo que nos podría
ayudar a evitar eventos bastante desagradables.
Palabra clave: Hacker, Metaverso, Información,
Anonymus, Ingeniería social.
ABSTRACT
As rational creatures, humans have always sought to
facilitate our work, over time. What has taken us, to
create the wheel, to great technological advances of
today. Thanks to the easy access to the internet plus
that comfort that we have, we can get to hang informa-
tion on the network that not always protected against
other users. Who can use our personal information at
will and without our consent. Knowing how to avoid
being a hacker is something that could help us avoid
quite unpleasant events.
Keywords: Hacker, Metaverse, information, Anony-
mus, Social Engineering.
1. INTRODUCCION
Vivimos en un mundo donde grandes y variadas cria-
turas habitan. Cada una de ellas se mueve por una ra-
zón que va más allá de nuestro entendimiento. En este
basto mundo los humanos nos hemos auto categoriza-
do como seres pensantes y racionales. La racionalidad
es lo que
nos ha llevado a diferenciarnos de los animales, no-
sotros nos preguntamos el porqué de las cosas. Y es
evidente que tenemos algo diferente de otros seres una
inquietud por querer hacer nuevas cosas. Esos factores
transformaron al Australopitecos de la prehistoria al
hombre moderno de hoy. Capaces de construir cons-
trucciones gigantescas, alzar casa en lugares inhós-
pitos, cultivar alimentos en lugares tan áridos. Día a
día estamos desafiando nuestras propias ciencias. Uno
de los mejores inventos es el internet sin duda. Cada
vez más accesible y barato, nos ha facilitado la vida,
tanto que todos los aspectos en nuestra vida lo que-
remos poner en un plano al cual podamos acceder en
cualquier momento sin importar el lugar. Pero no todo
es gozo, la red posee peligros que mucha de la gente
que la usa, desconoce. Y puede llevar a que tengamos
desde pequeños problemas a ser víctimas de chantajes
y extorsiones peor gente que puede tomar el poder de
toda la información que tenemos, sin nuestro permiso
.2. DESARROLLO
La humanidad desde sus inicios siempre ha sucumbi-
do a la curiosidad por saber más.Desde los hombres
de las cavernas hasta el hombre del mundo actual, esa
pasión innata por el conocimiento no se ha perdido.
Lo que con el paso de los años, con el avance de la
tecnología haga que creemos un -metaverso- . Este
término fue usado en su novela Snow Crash , que fue
publicada en 1992. Y se refiere al mundo virtual en el
cual habitan todos los datos de información en la vida
real. Es decir es el mundo virtual donde tiene efecto
cada acción que realizamos en nuestra computadora,
celular, etc. Podemos decir que este es un mundo que
se sabe que está ahí pero muchos no conocen de qué
se trata más cuando hoy en día a diario estamos conec-
tados con él. Una simple acción tan común para noso-
tros, personas internautas, como mandar una foto, ac-
ceder a una cuenta de correo o enviar un mensaje por
medio de WhatsApp, se transforma en millones de da-
tos que viajan por una red para ser desencriptados por
el receptor. Es ahí donde antes de realizar cualquier
acción debe nacer la pregunta ¿Quién manipula estos
datos? Todos los millones de datos que intercambia-
mos a diario, ¿A dónde van? ¿Cómo se manejan? La
respuesta puede estar más allá de lo que imaginamos.
70
No es que están flotando sin restricción. Los cursos
y las direcciones están dados externamente por otras
personas. Por ejemplo las compañías de servicios de
redes, de sitios web, el FBI y personas externas con
conocimiento de informática. Todas las personas que
están en las redes sociales a diario ignoran esto. Si
bien es verdad que las compañías no hacen nada inde-
bido con tu información por ética, las personas exter-
nas a estas que acceden a nuestra información pueden
manipularlas a su antojo. Es ahí donde aparecen los
hackers.
2.1 LOS HACKERS
Pero ¿Qué es un hacker? La RAE solo lo define como
un pirata informático, es decir, alguien con grandes
conocimientos sobre informática, que ingresa a una
red u ordenador personal de formas ilegal.
Es la definición más acertada, ya que cualquiera pue-
de ser un hacker, lo que nos diferencia de ser grandes
y buscados delincuentes informáticos es el nivel que
conocimientos que tenemos, lo que por siguiente nos
da el nivel de a que sistemas podemos meternos. No
tiene la misma relevancia hackear una cuenta de Fa-
cebook, que una cuenta de banco. Ambos son delitos,
sí, pero el daño es mucho mayor. Teniendo en cuenta
la afirmación de antes, cualquiera puede ser un hacker,
podemos decir que lo que diferencia de un internauta
de un hacker, es saber un poco más.
Puede que uno piense que se necesita una carrera uni-
versitaria para conseguir estos conocimientos, pues
puede que ayude pero no es del todo verdad. Hoy en
día el mismo internet que usamos a diario para ser víc-
timas, nos da las herramientas para ser victimadores.
Alguien con curiosidad puede leer un poco en algún
sitio web y encontrar herramientas para violar la pri-
vacidad de otro usuario. Es basta la ignorancia en la
que los internautas vivimos que casi todo el tiempo
damos información personal o facilitamos el acceso
a nuestras cosas privadas a través de internet, que el
poder tú mismo obtener información no es tan difícil.
Las personas se extrañan al oír el termino hacker, pero
es tan común que en países donde se tiene internet, ya
están presentes estos individuos.
Siempre se encuentra un antagonista en todas las
historias, hoy en día gente se dedica al oficio de ro-
bar cuentas personales para beneficio propio o de
alguien más, es verdad que se ha vuelto un negocio
muy rentable ya que cada vez todo lo ponemos en la
red. Para facilitarnos la vida, pero a la vez no saber
los peligros, hace que entremos a un plano totalmente
vulnerable y peligroso. Uno con la idea más inocente
puede compartir información, datos sobre su familia
o trabajo por medio de cualquiera de una red social.
Pero en el mismo instante un hacker contratado, me-
diante un hardware maligno puede estar tratando de
ingresar u obtener la clave de acceso de este usuario
para así el poder tener esta información y manipularla
a su conveniencia. Llevando esto a otro nivel, mucha
gente en países más avanzados se dio cuenta del poder
que conllevaba al tener información de usuarios que,
preferir mantenerla en secreto, fueron extorsionados y
manipulados.
Países enteros han sido víctimas de los hackers, los
cuales les han robado información y vuelto pública.
Con la ideología de que los países más poderosos no
tienen el poder de ocultar información. Uno de los
términos que se debe aparecer en nuestra mente al es-
cuchar esto es “Anonymus”.
2.2 ANONYMUS
La gente tiene una idea errada sobre esta palabra y es
que, cuando se pregunta a la gente sobre que entien-
de por esta palabra, lo primero que piensan es “los
hackers más fuertes del mundo” (esta afirmación está
basada en una encuesta a 20 personas aleatorias) lo
cual está totalmente equivocado.
Anonymus es un término en inglés que significa “anó-
nimo” traducida al español, y se da a un movimiento
internacional de internautas. Quienes consideran que
el conocimiento dado en la información es libre y to-
dos tenemos igual acceso a ella. Hasta hoy en día no
se sabe cuántos miembros pertenecen exactamente a
este grupo. Pero si se sabe que al tratarse de un fenó-
meno nacido por el internet se ha expandido a nivel
mundial. De forma que es casi imposible establecer
una sede o un líder, todos los miembros son iguales.
Anonymus a lo largo de la historia ha tenido varios
episodios importantes, pero el más relevante y de inte-
rés es justamente cuando surgió. En el año 2006 Julian
Assange, un programador y periodista Australiano,
fundo Wikileaks, que es un sitio de internet dedicado
a difundir documentos de estados privados,al conoci-
miento público .En su debido momento y por razo-
nes obvias Assange fue perseguido y grandes compa-
ñías le negaron ayuda, tal como: Visa,  MasterCard,
PayPal o Amazon. Ahí es donde anonymus dio su
total apoyo a Julian. Provocando la caída de servi-
dores en todo el mundo. A partir de ahí , este grupo ha
71
hecho saber al mundo que existía lo que causó revuelo
y llevo a manifestaciones en las calles en España, con
máscaras blancas , símbolo de anonymus, que hoy en
día se conoce bastante .
Figura 1. Mascara de Anonymus
Fuente: (telesurtv , 2005 )
Con la aparición de anonymus al espaciopúblico es
obvio que la gente se interesómás en el tema de la
informática, dio origen a ataques poro ya realizados
por usuarios. Contra otros usuarios. La policía en va-
rios países tomó protagonismo en el frenar o al menos
reducir el índice de esto, dando origen a los delitos
informáticos. Lo más común que usa un hacker inde-
pendiente hoy en día es la ingeniería social.
2.3 INGENIERÍA SOCIAL
La ingeniería social es una manipulación psicología
de una persona a otra. Es obvio que una persona tie-
ne la información más importante de sus cuentas en
su mente, entonces un hacker trata de obtenerla pero
¿Cómo obtener información que está en la mente de
otra personal? Pues el hacker, puede iniciar una char-
la muy espontanea con su víctima, puede parecer un
simple amigo nuevo amigable, quien mediante labia
logra ganarse la confianza y es donde saca la infor-
mación de su víctima sin que se dé cuenta. Existen
varias y muchas formas de sacar información y según
el modo de hacerlo se pueden nombrar de manera di-
ferente según las características.
2.3.1 PISHING
El pishing consiste en la práctica de un una persona
crea un microprograma que está cargado de un virus
troyano para la víctima. Entonces la hace llegar a las
personas mediante un link externo. El objetivo del ata-
cante queahí es donde se ve la creatividad del hacker,
muchos hacen pasar este malicioso link como una en-
cuesta o que el usuario gano algo.
Figura 2. Pishing
Fuente: (vodafone, 2017)
2.3.2 VISHING
El vishing es un método que usan los hackers actuales
por el cual pueden extraer personal importante sin un
gran esfuerzo.
Consiste en que recibas unallamada o un mail, don-
de te habla alguna persona de tu compañía telefóni-
ca, o tal vez del banco donde guardas tus ahorros y
comienza a hacerte preguntas acerca de tu vida y tú,
creyendo su identidad le facilitas información. Esta
técnica se ha vuelto muy popular ya que las personas
no siempre piden un credencial o algo que identifique
a alguien, que dice ser miembro de alguna empresa
o institución. Es importante tener en cuenta toda la
información para no caer en la trampa y llegar a ser
estafado o engañado.
2.3.3 BAITING
Este método no es tan popular ya que se necesita un
poco más de conocimiento. El hacker debe crear o
simplemente conseguir un software malicioso que
instalado a una computadora, da la instrucción al es-
quipo de que envié información o deje los sistemas de
seguridad inhabilitados. De tal modo que se hace una
“entrada” fácil para que el hacker robe todos los da-
tos que quiera. Pero, ¿cómo es que podría instalar este
programa? Nadie dejaría que un extraño instale algo
en su equipo con su consentimiento. Pues bien , los
piratas informáticos se dan métodos, como el de cuan-
do el usuario no esté viendo introducir una memoria
USB y el ataque se habría concretado . Al mismísimo
estilo de las películas de Hollywood, habríamos sido
hackeados.
72
Otro modo que se ha conocido es el de que los hackers
dejan en ligares públicos o por donde saben que una
víctima especifica va a caminar, puede ser en la ace-
ra, en el aula de algún colegio o universidad, un baño
público, etc.
Entonces cuando uno pasa y ven en el suelo una me-
moria USB obviamente la recoge y la pone en su com-
putadora. Basta ese pequeño e inocente acto para dar
por terminada la tarea que un hacker ha comenzado.
Figura 3.Baiting
Fuente: (SPAMfighter, 2011)
2.3.4 CONSEJOS PARA EVITAR SER HACKEA-
DOS
Después de ver tantas formas de ser hackeados, po-
demos darnos cuenta de que ignorábamos mucho la
importancia de cuidar nuestra información. Con lafa-
cilidad de conseguir acceso hoy en día al internet nos
vuelve a todos internautas y eso nos vuelve también
potenciales víctimas de un hackeo. Por lo que todos
debemos tener ciertos cuidados con toda nuestra in-
formación para que se mantenga la privacidad que de-
seamos. Por eso a continuación están algunos de los
consejos que debemos tener en cuenta para evitar así
un robo de información.
•	 Nunca dejes tus equipos personales a cuida-
do o disponibilidad de otras personas.
•	 No des información a alguien que dice ser de
alguna empresa sin antes ver algo que valide esto.
•	 Evita abrir links que no concuerden con la
página que te dijeron. Por ejemplo si te dicen que
es un enlace de Facebook el enlace debería pare-
cerse a :
•	 www.facebook.com/etc/es_un_
linkgenuino
•	 Siempre el nombre de la página está
en el link.
•	 Evita “loguearte” en otra dirección que no
sea del sitio oficial. Loguearse es un término que
se usa hoy en día y significa cargar tu cuenta. Vie-
ne de la palabra en inglés “login” que significa:
iniciar sesión.
•	 Es decir, cuanto ingresas tu contraseña e
usuario, en ese momento tú te estas “logueando”.
•	 Cierra tu sesión en un equipo que no sea de
uso personal. Cuando vayas a un café internet o
entres a tu cuenta desde el dispositivo de otra per-
sona, siempre cierra tu cuenta. no confíes en que
ella lo hará, verifica que esté cerrada.
2.4 HACKING ÉTICO
El hackeo tiene un lado, si bien no es malo, es menos
oscuro como robar información. Varias empresas con-
tratan a programadores o hackers para que hackeen su
sistema. Esto puede parecer muy confuso, ya que sería
equivalente a que paguen a alguien para que te robe.
Entonces nos surge la pregunta ¿Por qué las empresas
contratarían a personas para que los hackeen?
Pues bien, el motivo es que una vez que el sistema es
vulnerado el hacker reporta los errores de seguridad
a ña empresa. Es decir da cuenta de todos los puntos
débiles en un sistema. La empresa teniendo conoci-
miento de sus fallas las corrige y esto permite que en
un futuro alguien que si quiera hacerles daño tenga el
camino más difícil o casi imposible. Logrando así un
sistema mucho más fuerte y seguro. Es así que algu-
nos sitios en el mundo o empresas grandes casi nunca
reportan que han sido hackeados porque siempre van
corrigiendo sus puntos vulnerables. Es por eso que se
contrataría a hackers.
Si bien no existe una política que obligue a las em-
presas a hacer esto, es bastante aconsejable hacerlo,
ya que no puedes confiar millones de archivos de in-
formación importante en un sistema al cual no le has
hecho exámenes de seguridad. Es bastante importante
tener niveles de seguridad para proteger nuestros da.
73
Figura 4. Las dos caras del Hacking
Fuente: (Exploiter, 2015)
3. CONCLUSIONES
El fácil acceso al internet hoy en día ha dado a todo
el mundo las herramientas para que cualquier persona
pueda convertirse en un hacker potencial, Al mismo
tiempo todos podemos ser víctimas de un hackeo. Si
uno tiene cuentas en algún sitio de internet ya se con-
sidera un cibernauta y ya está dentro del grupo de po-
sibles objetivos.
Existen muchos métodos y maneras por las cuales los
piratas informáticos roban información, por lo que la
seguridad y precaución al momento de manejar nues-
tra información personal debe ser muy alta. Debemos
estar muy atentos y ser precavidos con nuestra infor-
mación, donde la escribimos, a quien se la damos, etc.
No confiar cosas privadas en cualquier persona que
dice ser de confianza.
No todo en el mundo del hackeo es malo, podemos
encontrar un lado bueno de los hackers. Ya que solo
conociendo nuestras debilidades podremos corregirlas
mientras que si nos confiamos en que todo está bien,
corremos el riesgo de perder mucho más. Es aquí
cuando el refrán “mejor prevenir que lamentar” cobra
un significado más notable. Cuidemos nuestra infor-
mación y ningún evento desagradable e inesperado
ocurrirá.
Existe mucha más información sobre este tema que no
se puede dejar de lado. Un deber como cibernautas es
informarnos. Es explorar un nuevo mundo en el que
vivimos. Significa saber más alla de esencial, es saber
lo necesario.
4. REFERENCIAS BIBLIOGRAFICAS
Anónimo (2009). Hacking, cracking y otras defini-
ciones. Recuperado de: www.duiops.net/hac-
king/hacking-cracking.htm
AVAST Software s.r.o. (2015). Pishing. Recuperado
de: https://www.avast.com/es-es/c-phishing
Cornejo, P. Forero F. (2012). Técnicas de Hackeo. Re-
cuperado de: https://es.slideshare.net/semi-
nario4/exposicin-tcnicas-de-hackeo
Juanlo, (3 abril del 2014).
	 ¿Qué es el metaverso?
	 Recuperado de: https://www.realovirtual.
com/noticias/566/que-es-metaversoe
Gonzáles, A. G. (2 de Enero del 2009).Hacker. Recu-
perado de: https://www.definicionabc.com/
tecnologia/hacker-2.php
Garzon, L. (13 de Marzo de 2016).
	 Tipos de piratería. Recuperado de: https://
prezi.com/-zf5ml4n7u8g/tipos-de-hackeo/
Gonzales, G. (24 de Marzo del 2015).
	 ¿Qué es la ingeniería social? Recupera-
do de:https://hipertextual.com/2015/03/
que-es-la-ingenieria-social
Kabay, M. E. (20 de Enero del 2004).
Baiting hackers.
Recuperado de: https://www.networkworld.
com/article/2329759/lan-wan/baiting-hac-
kers.amp.html
Milá, L. (2017). EE.UU. Contra Wikileaks: Una gue-
rra de fin incierto.
Recuperado de: http://www.rtve.es/noticias/
filtracion-wikileaks/
Real Academia Española (2017).
	 Recuperado de: http://lema.rae.es/dpd/srv/
search?key=hacker 2005
Setfree, L (2015) ¿Qué es un hacker? Recuperado de:
	 https://www.vix.com/es/btg/tech/13182/que-
es-un-hacker
Shin, L. (4 de Enero del 2017)
	 Be Prepared:The Top ‘Socia Engineer-
ingl’Scams Of 2017. Recuperado de: https://
www.forbes.com/sites/laurashin/2017/01/04/
be-prepared-the-top-social-enginee-
ring-scams-of-2017/#11633d477fec
Sierra, D. (28 de Febrero del 2012).¿Qué es Anon-
ymus? Recuperado de: http://www.rtve.
es/noticias/20120228/anonymous-quie-
nes-son-como-actuan/438765.shtml
74
RESUMEN
El avance de la inteligencia artificial dio pie a una nue-
va era y a la creación de nuevos productos capaces
de imitar el comportamiento humano nos muestra un
futuro en el cual podríamos automatizar por completo
las actividades hechas por humanos. La inteligencia
artificial en la última década y los grandes avances
de esta han tenido un impacto masivo en la forma de
realizar nuestras actividades diarias, ya sea en diferen-
tes aplicaciones de reconocimiento de voz, reconoci-
miento facial, en el motor de búsqueda de google, y
es fundamental en dispositivos electrónicos actuales
o en programas como la navegación por GPS y video-
juegos. La inteligencia artificial, aunque en ocasiones
no nos percatamos, hace posible todo esto, sin embar-
go es innegable que esto afectó a nuestros hábitos y
la manera en la que manejamos distintas tareas pero
¿Qué podemos esperar de esta en un futuro no muy
lejano?
Palabras Clave: Robótica, dispositivo inteligente.
ABSTRACT
The advance of artificial intelligence gave way to a
new era and the creation of new products capable
of imitating the human behavior show us a future in
which we could completely automate activities made
by humans. The artificial intelligence in the last de-
cade and the great advances it has made had a massive
impact in the way we do our daily activities, be it in
different applications like speech recognition, facial
recognition, in the google search engine and is essen-
tial in actual electronic devices or different programs
for GPS navigation and videogames. The artificial in-
telligence, even when at times we don’t notice, makes
all of this possible, however it’s undeniable that it
affected our habits and the way we handle different
tasks but, What can we expect from a future not so
far away?
Keywords: Robotics, Smart devices.
1. INTRODUCCIÓN
Una de las definiciones de la inteligencia artificial es
que intenta imitar el funcionamiento de un cerebro
humano siendo capaz de tomar decisiones correctas y
aprender de sus experiencias, actuando según la situa-
ción en la que se encuentre.
Hoy en día es difícil encontrar a alguien que no posea
un celular o televisor inteligente puesto que estos se
convirtieron en algo esencial ya que son capaces de
una cantidad asombrosa de tareas y su facilidad de uso
hace posible que personas con poco conocimiento de
tecnología pueda utilizarlos sin problemas.
En el otro lado del mundo en países como Japón se
pueden encontrar robots inteligentes que son capaces
de ayudar en los hogares realizando tareas de limpieza
e incluso casas inteligentes casi totalmente automati-
zadas.
A pesar de que estos últimos no son accesibles eco-
nómicamente en la actualidad debido a su novedad es
muy probable que al igual que los celulares se con-
viertan en algo común en pocos años dando pie a una
nueva era tecnológica pero ¿Qué tiene que ver la inte-
ligencia artificial en todo esto?
Citando lo dicho anteriormente un dispositivo inteli-
gente es capaz de aprender los hábitos de su usuario
o corregir y entender una orden aunque un usuario
cometa un error al introducirla, y en todos los casos
realizar la acción que resulte más beneficiosa en esa
situación. Estas características están presentes en la
mayoría de los dispositivos actuales pero no siempre
fue así. Al contrario de la creencia popular la inteli-
gencia artificial existe desde 1940 a manera de algo-
ritmos y fue progresando desde entonces, actualmente
existen proyectos ambiciosos en los que se intenta re-
crear por completo una mente humana, pero esto da
pie a la pregunta de ¿qué tipo de moralidad debería
seguir una maquina? O ¿Esto implicaría algún riesgo
para nosotros? y personas se oponen puesto que po-
dría afectar la disponibilidad laboral en ciertos rubros.
INTELIGENCIAARTIFICIAL, ¿CÓMO AFECTARÁ EN NUESTRAS VIDAS?
Cruz Choque Ivan Limbert, Murguía Cazón Alvaro Marcelo, Veizaga Blanco Cristhian Freddy
ivanhjig@gmail.com, Alvaromurgia123@gmail.com,veizagacristian@hotmail.com
Universidad Mayor de San Andrés
Carrera de informática
Gramática Española
75
La inteligencia artificial al igual que la robótica fre-
cuentemente es motivo de discusión y el hecho de
automatizar los trabajos más riesgosos sería un gran
avance pero a su vez su uso extendido dejaría sin em-
pleo muchas personas, este tipo de controversias ha
dado mucho que hablar. Por otro lado cuando propuso
el usar maquinas autómatas
Por otro lado cuando propuso el usar maquinas au-
tómatas para trabajar en minas los resultados fueron
mejor de lo esperados puesto que eliminaría por com-
pleto el riesgo de heridos en caso de un derrumbe y
una maquina es mucho más precisa realizando traba-
jos en poco tiempo y sin la necesidad de descansos. Lo
mismo aplicaría en el campo de la medicina donde en
cirujano necesita un pulso firme gran concentración
para realizar una cirugía, pero una maquina es capaz
de realizar trabajos a la perfección ya que no posee
cualidades como el miedo, dudas ni distracciones.
Quizá lleguemos a un punto en el cual las personas ya
no tengan que realizar ninguna de estas tareas pero si
algo es seguro es que cambiara nuestra forma de vivir.
2. DESARROLLO
Así es como se verá tu mundo.Es el futuro lejano tu
cuerpo se fue eres una computadora todo el tiempo tu
cerebro es más poderoso,más que un billón de com-
putadoras. Empleos, comida, idioma, agua, incluso
pensamiento tradicional, todas las barreras de la hu-
manidad todo eso termino tu eres inmortal. ¿Estas
asombrado? Deberías, esto no es ciencia ficción los
pensadores visionarios de hoy en día dicen que hay
una fuerte posibilidad de que así es como se verá el
mundo. En este artículo se mostrara como se verá el
mundo en el año un millón esta es la descripción de
nuestro futuro el camino al año un millón.
El año un millón no hablamos de una fecha es una
era figurativa una en la que nuestro mundo pase por
un cambio muy dramático que es prácticamente irre-
conocible y una de las principales innovaciones que
moldearan ese futuro es la creación y el acenso de
la inteligencia artificial si nos preguntamos que de-
fine a los seres humanos la respuesta seria nuestras
mentes nuestra conciencia nuestra inteligencia y si
pudiésemos crear esa inteligencia crear algo lo más
poderoso que hemos experimentado seria asombroso
¿o no? Quien no encontraríafascinante y convincente
o verdaderamente aterrador y deberíamos asustarnos
por ejemplo el celular en tu bolsillo, nopodemos vivir
sin él y ya nos ha empezado a remplazarnos puede ac-
ceder a nuestros recuerdos y hallar información en un
pestañeo y se hace mucho mejor con el tiempo esa es
la inteligencia artificial que cambiara nuestro dominio
sobre el planeta.
Una de las etapas explosivas de la evolución de in-
teligencia artificial empezara de aquí a unos cientos
de años cuando lo robots humanoides sean casi in-
distinguibles de nosotros tomaran nuestros empleos
cuidaran nuestras enfermedades luego reconocerán su
propia conciencia rebasaran al ser humano iniciando
un cambio de paradigma que apena podemos imaginar
en nuestro mundo.
Luego viene la singularidad cuando los androides con
inteligencia artificial se vuelvan especies alfa y con la
humanidad muy vulnerable algunos elegiremosfusio-
narnos con la inteligencia artificial para ser competen-
tes empezaremos con implantes cerebrales y la larga
viviremos en un universo totalmente digital donde po-
dremos hacer lo que sea que imaginamos y finalmente
cuando dejemos que la inteligencia artificial influya
en cada aspecto de nuestra vidas nuestra noción de lo
que es un ser humano tomará otro significado intenso
¿verdad?
Regresemos reloj cuando los androides con inteligen-
cia artificial eran tan omnipresentes como extinguidor
y aun no se volvían parte de nuestras familias
Pero ¿Cómo llegaras del celular en tu mano a inte-
ractuar con una persona artificial?Pues como todas las
grandes innovaciones tecnológicas si puedes imagi-
narlo puedes hacer que pase.
Los humanos no tienen el poder de conocer el futuro
pero en miles de años de historia humana nunca he-
mos logradoparar de intentar imaginarlo pero, es muy
difícil imaginarnos dentro de cien años al ritmo en que
las cosas estarán cambiando.
Ese deseo de poder ver el futuro haasediado a la hu-
manidad desde sus inicios, los antiguos griegos chinos
e indios todos han soñado con historias mitológica-
sacerca de un futuro ser vivo creado por el hombre;
las inteligencias artificiales son una parte amada de
la ciencia ficción de hoy en día,la ciencia ficción es la
ruta o el diseño de a dónde vamos es como un sueño
conectivo de la humanidad de lo que podría ser el fu-
turo y empujamos la realidad hacia esa dirección.
En el último medio siglo se ha imaginado y creado
inteligencia artificial que puede interactuar con noso-
76
tros e incluso derrotarnos en nuestro propio, juego los
primeros programas de
inteligencia artificial fueron creados en los cincuen-
ta y tal vez la primera y más dramática demostración
pública fue en 1996 cuando la computadora “Deep
Blue”derrotó al gran maestro de ajedrez y en 2016 el
“alfa go” derroto a unos de los mejores jugadores del
mundo de go, considerado como uno de los juegos
más complicados del planeta.
Ahora claro todos tiene un celular una inteligencia
artificial de bolsillo la inteligencia artificial claramen-
te se hace cada vez más inteligente pero no pueden
interactuar de una forma que podamos llamar humana
aun.
	
Figura 1. Érica el androide japonés
Fuente: (Kiodo, 2015
Érica el androide o eso depende a quien le pregunten
es uno de los humanoides más sofisticados jamás di-
señados y nos da una idea de lo que una inteligencia
artificial del año un millón podría parecer. Las compu-
tadoras modernas son calculadoras son rápidas dando
la ilusión de que piensan pero nunca aprenden, luego
tenemos maquinas que aprenden redes neuronales ar-
tificiales,literalmente se reconfiguran por si mismas
después de aprender una tarea y así vemos máquinas
que aprenden.
Las cosas que son fáciles para los humanos son difí-
ciles para los robots y viceversa por ejemplo un robot
podría multiplicar un número de seis dígitos sin pro-
blema pero podría no saber cuándo formar parte en
una conversación. Lograr que una inteligencia artifi-
cial tenga una plática simple es mucho más complejo
y desafiante que lograr que haga cálculos avanzados
Nos enfocamos en percibir lo humano como ¿qué cla-
se de lenguaje corporal hace una persona?o¿cuál es su
expresión e intentar percibir esas cosas?
Hay mucho interés en robots que podrían cuidar a los
ancianos o encargarse de la salud o cosas educativas.
Mientras que los androides e inteligencia artificial
evolucionen se volverían más indistinguibles de los
humanos y la siguiente fase de automatización afec-
tara dramáticamente a lo que significa ser humano,
la batalla de la supervivencia dará inicio. Si tu Smar-
tphone hace todo por ti navegación agenda e inclu-
so encontrar una cita puedes ver que la inteligencia
artificial se hace más inteligente con cada segundo
que pasa y pronto se sentara en la silla de una oficina
nos referimos a los empleos no podemos escapar de la
dominación mundial de la inteligencia artificial, esta-
mos en la cúspide de una revolución e automatización
dentro de cien años tal vez las personas no trabajen al
mismo grado que lo hacen hoy la labor humana será
remplazada por maquinas, se podría liberar del trabajo
agotador del pasado los robots harían ese trabajo ago-
tador o peligroso.
En 1800 los trabajadores textiles llegaron y vieron
esas maquina nuevas y dijeron que los empleos des-
aparecerían por que los empleos se expandieron por
que otros tipos de industrias fueron inventados
Muchos empleos se perderán por la inteligencia artifi-
cial y los robots en los siguientes años.
Pareciera que no existiera manera de frenar la auto-
matizacióndigital y como resultado se produjeron
cambio en la fuerza de trabajo pero cuando humano
y maquinas trabajan mano a mano como lo hacen en
EE-UU es posible llevar a una granja a un nuevo nivel
llegando a cosechar cerca a los 10000 acres solo con
aplicaciones en teléfonos utilizados para monitorear-
los tractores, el combustible y que tan rápido va.
La inteligencia artificial ya empezó su marchar para
encargarse de la mano de obra empezando con un em-
pleo en Microsoft como ayudante personal.
Figura 2.Cortana.
Fuente: (Engadget, 2017)
Ya sabemos que la inteligencia artificial cambiara la
77
forma en la que pasamos 40 horas la semana son y
serán tiempos difíciles para la mano de obra mundial
y eso no es todo la inteligencia artificial con el tiempo
será tan sofisticada y tan inteligente que podría acer-
carse mucho a tener todas las cualidades que tenemos
los humanos, algún día habrá un sistema construido
con nuestras propias manos que abrirá los ojos que
vera y se asemejara a la clase de seres que somos y
cuando eso pase será un momento trascendental en la
historia humana.
La inteligencia artificial empieza a tener lo que llama-
mos nociones básicas del mundo para el que hay pala-
bras si pensamos en el sabor del chocolate o el olor de
los océanos es muy difícil describir eso exactamente
con palabras las computadoras también las tienen pue-
den tener sensores de modalidad que van másallá de
nuestros cinco sentidos por lo tanto tendrán nociones
del mundo para las que no tendríamos palabras.
Por un momento creamos eso, las computadoras pue-
den ser capaces de pensar por sí mismas igual que no-
sotros pero hay una cualidad que tenemos y de la que
a menudo se cree que los humanos tenemos el mono-
polio. La forma en que nos ganamos a vida. La creati-
vidad si las computadoras pueden crear ¿qué significa
eso para la humanidad? Las cosa que pensamos son
providencia de los creativos las maquina empezaran a
hacerlas Al final a los humanos nada nos hace únicos
cada capacidad que tenemos finalmente son resultados
de la física la biología la química y si una persona en
realidad quiere recrear esa capacidad en un sistema
artificial sería posible
Hagamos lo que hagamos solo podemos ser más po-
derosos que la inteligencia artificial por algún tiempo,
nos están ganando, en algún futuro lejano la inteligen-
cia artificial nos rebasara a toda velocidad, los futuris-
tas llaman en que las maquina inteligentes se vuelvan
raza alfa del planeta y empiecen a funcionar sin nues-
tro control como la singularidad.
Singularidad es el punto en donde una conciencia de
inteligencia artificial es creada y es más inteligente
que las persona, la inteligencia artificial es cada gene-
ración exitosa que ha aprendido todo de la generación
anterior así que tiene un rápido crecimiento exponen-
cial en capacidades y conocimiento que es casi abis-
mal
Cuando llegue la singularidad la inteligencia artificial
no solo cultivara nuestra comida y hará la lavandería
no solo harán nuestros impuestos y legislaran las leyes
si no que pensaran soñaran y crearan, a menudo se
dice que la inteligencia artificial será la última inven-
ción que el ser humano lograra hacer porquea partir de
ello estos tomaran el control.
Es posibleque la inteligencia artificial llegue a evolu-
cionar demasiado, tanto que tendrá una súper inteli-
gencia que rebasará la nuestra, podría ser lo mejor que
le haya pasado a la humanidad nos liberaran de labo-
res domésticas nos ayudaran a procesar información
como nuca antes, a lograr niveles de pensamientos
y exploración científica que nunca seria posibles sin
ellos. Por otra parte podrían retarnos por la cima en la
cadena alimenticia
¿Qué pasaría si las maquinas deciden que están mejor
sin nosotros?
Imaginemos que una maquina supera a los humanos
y no puede ser detenida se vuelve loca convirtiéndo-
se en una amenaza para la humanidad vayamos a ese
punto al finales del siglo tal vez tendremos robots con
conciencia propia pondríamos un chip en su cerebro
que los apague si tienen pensamientos asesinos por-
que en ese punto podrían volverse independientes de
nuestro deseos, si perdemos el control de los robots
y se empiezan a hacer más robots,más inteligentes
podríamos estar en problemas.La ciencia ficción a
imaginado eseescenario de lo que pasaría cuando la
maquinas crean saber lo que es mejor para nosotros.
Hay toda una caja de probabilidades de problemas
éticos que surgen esa maquia pensante tendría los
mismos derechos que los seres humanos esa máquina
pensante merece cierta clase de autonomía que noso-
tros hayamos creado esa máquina, los humanos quizás
no estaría tan emocionados de renunciar a su estatus
de alfa en la tierra pero sucede que tal vez no tenga-
mos opción a lidiar con seres más inteligentes y más
fuertes que nosotros
La pregunta sería ¿los robots similares a los humanos
merecen derechos iguales? Llegamos a este territorio
ético porque una maquina no es un humano es más
como un perro, los perros en si las mascotas tienen
derechos, si alguien matara a nuestra mascota todos
verían que eso no está bien porque una mascota es un
ser viviente y tiene algún tipo de conciencia por lo que
se cree que las maquina también tendrían derechos.
Es posible que la inteligencia artificial pueda tomar el
poder que quiere. Ciertamente tendrá la habilidad para
78
eso. Significa que el futuro podría ser un lugar donde
los robots ya no trabajen para nosotros si no que ten-
drán el mismo estatus que los humanos.
Que la inteligencia artificial sea más inteligente que
toda mente junta es una posibilidad muy real es la sin-
gularidad y es nuestro futuro, es posible que la inteli-
gencia artificial decida que nos quieren fuera, claro es
aterrador.
Pero hay una posibilidad aúnmásoptimista, esasom-
broso y emocionante imaginar lo que la inteligencia
artificial podría hacer, es decir nos esforzamos mucho
para resolver grandes problemas sobre la tierra, sobre
el universo, imaginen que transfiriéramos esos enig-
ma a una ámbito pensante más poderoso que pudiera
resolver esos problemas o revelar nuevas oportunida-
des que nunca pesamos e ideas creativas que entonces
podríamos perseguir, en esta visión del futuro la inte-
ligencia artificial no solo vivía a nuestro lado como
compañeros los humanos también detendrán el con-
trol sobre la maquinas
Cuando la inteligencia artificial se vuelva mássofis-
ticada podremos empezar a elaborar a un nivel más
profundo e interesante cuando llegue una nueva crea-
tividad y la colaboración sea posible eso será podero-
so la tecnología no siempre será una amenaza o quizá
negativo, se puede agregar y reforzar la creatividad
también el arte se verá afectado a veces en formas her-
mosas e impredecibles nos liberara para hacer lo que
hacemos mejor, que es soñar y crear e inventar algo
más grande y mejor que la inteligencia artificial.
Luego está la posibilidad de tomar una página del li-
bro de la inteligencia artificial y nos volveremos en
parte una computadora,esposible que nos empecemos
a volvernos híbridos esa es la encrucijada de ahí parti-
remos no solo será extensión del modelo humano si no
la invención de una nueva definición de ser humano,
estamosa punto de viajar de solo humanos a humanos
y solo activados por la computación una especie de
salto a la cima de este crecimiento exponencial, no
hay problema con fusionarse con la tecnología de las
maquinas no hay analizarlo nada de que preocupase
no se creía de que algo salga mal al fusionarnos con
nuestra tecnología, si un tercio de millón de pacientes
tuviese un implante neuronal puesto en su sistema ner-
vioso ayudaría a la gente con demencia o Alzheimer y
otras enfermedades con el tiempo el uso se ampliara
a funciones complejas como como la inteligencia o la
memoria aumentada en tiempo real, si nos fusionamos
con la inteligencia artificial ¿qué forma tomaríamos?
Un nuevo modelo para la humanidad ya no puramente
biológico similar a una especie deciborg, ya no ten-
dríamos que confiar en la suerte de la genética, po-
dríamos decidir qué clase de humanos podríamos ser.
Figura 3.Esfera de Dyson.
Fuente: (Anónimo, 2017)
Aun somos humanos o somos inteligencia artificial
pura podría ser una distinción confusa y tal vez es me-
jor dejarlo ese punto así
Lo que no es confuso es que la inteligencia artificial
alimentara todas las tecnologías futuras debemos
comprender esto muchos científicos creen que en un
futuro trabajaremos con la inteligencia artificial para
evolucionar nuestros cuerpos biológicos existiremos
solo como una señal digital en una estructura llamada
la esfera de Dyson una súper computadora alimentada
por el sol en donde podremos estar en cualquier parte
y en ninguna al mismo tiempo, pero antes de eso los
científicos deberá resolver como hacer que los huma-
nos vivan para siempre ¿Qué harías si nunca tuvieses
que morir?
3. CONCLUSIÓN
La inteligencia artificial consiste en la asimilación de
los procesos inductivos y deductivos del cerebro hu-
mano.
Es una rama de la ciencia de computación que com-
prende el estudio y creación de sistemas computariza-
dos que manifiestan cierta forma de inteligencia.
La IA es un campo de estudio que busca explicar y
emular el comportamiento inteligente en términos de
procesos computacionales.
El desarrollo de la IA dará paso a grandes avances al
punto de cambiar la forma en que vivimos.
4. REFERENCIAS BIBLIOGRÁFICAS
Torra, V. (2017).Estudios.Recuperado de:https://bi-
blioteca.itam.mx/estudios/estudio/estudio10/
sec_16.html.
79
Anónimo (2017). El androide que va a condu-
cir-un-programa de televisión.Recuperado
de:https://www.pagina12.com.ar/20374-eri-
ca-
Anónimo. (2015). Microsoft refuerza estrategia in-
teligencia artificial.Recuperado de: https://
news.microsoft.com/es.es/2017/07/13/mi-
crosoft-refuerza-estrategia-inteligencia-arti-
ficial/
Anónimo (2017). El mundo. Recuperado de:
http://www.elmundo.es/opinion/2017/10/31/
59f7706bca47413c2d8b45cf.html
Anónimo. (2017). Inteligencia artificial Dayapolis.
Recuperado.de:http://inteligenciartificialda-
yapolis.blogspot.com/p/caracteristicas.ht-
ml?m=1.
Anónimo. (2017). Proponen un nuevo tipo de esfera
de Dyson prácticamente.Recuperado.de:ht-
tp://es.gizmodo.com/proponen-un-nuevo-ti-
po-de-esfera-de-dyson-practicamente-
Anónimo. (2017). Definición. Recuperado de:
https://www.definicionabc.com/tecnologia/
inteligencia-artificial.php.
Anónimo. (2017). Motor de inteligencia artificial.
Recuperado.de:https://www.azulweb.net/
microsoft-libera-bajo.licencia/mit-su-mo-
tor-de-inteligencia-actificial/
Anónimo. (2017). “Historia de la inteligencia ar-
tificial”.Recuperado de:https://es.wikipedia.
org/wiki/Historia_de_la_inteligencia_artifi-
cial.
Anónimo (2017). “La inteligencia artificial ha-
cia donde nos lleva”. Recuperado de:
https://www.azulweb.net/microsoft-libe-
ra-bajo-wlicencia/mit-su-motor-de-inteli-
gencia-actificial/
Anónimo (2017).”La intuición y los qualia”. Recu-
perado.de:https://www.google.com/amp/s/
blogs.enconfidencial.com/amp/tecnologia/
relatos-relativos.
Anónimo. (2017). Ventajas y riesgos de la inteligen-
cia artificial. Recuperado de:
https://www.muyinteresante.es/tecnologia/
articulo/ventajas y riesgos de la inteligencia
artificial.
80
INTELIGENCIAARTIFICIAL EN LOS VIDEOJUEGOS
Aguilar Catari Jorge Pablo, Carrion Choque Nelson
Pabloaguilar12a95@gmail.com, ncarrion267@gmail.com,
Universidad Mayor de San Andrés
Carrera de Informática
Gramática Española
RESUMEN
La inteligencia artificial o IA es uno de los puntos más
importantes a la hora de estudiar y criticar un video-
juego y mientras que hay unos grandes avances en
los últimos años parece que se ha llegado a un tope y
la inteligencia de nuestros aliados y enemigos virtua-
les se ha estancado. Ya que tenemos las mismas inteli-
gencias artificial casi sin modificaciones. ¿Qué depara
el futuro? La inteligencia artificial es un campo de la
informática cuyos avances son cada día más rápidos y
profundos. ¿Cómo se podría aplicar esta apasionante
tecnología al desarrollo de videojuegos? La respuesta
a este interrogante aún nos queda bastante lejos, pero,
usando un poco la imaginación, podremos hacernos
una idea de cómo será el futuro. Una idea quizá irreal
y fantasiosa, pero, definitivamente, muy interesante y
sugerente.
PALABRAS CLAVE: Inteligencia artificial, Video-
juegos.
ABSTRACT
Artificial intelligence or AI is one of the most import-
ant points when it comes to studying and criticizing
a video game and while there are great advances in
recent years it seems that it has reached a point and the
intelligence of our virtual allies and enemies has been
stagnant Since we have the same artificial intelligence
almost without modifications. What does the future
hold? Artificial intelligence is a field of information
technology whose progress is getting faster and deep-
er every day. How could this exciting technology be
applied to the development of video games? The an-
swer to this question is still far away but, using a little
imagination, we can get an idea of what the future will
look like.An idea perhaps unreal and fantasy but, defi-
nitely, very interesting and suggestive.
KEY WORDS: Artificial intelligence, Video games,
1.	 INTRODUCCION
El concepto de inteligencia artificial o IA en los vi
deojuegos es algo más básico del que hemos hablado
anteriormente, y se refiere en este caso a las técnicas
utilizadas por los programadores para
producir una ilusión de inteligencia en el
comportamiento de los personajes no jugables, así
como de otros elementos del entorno. Estas
Inteligencias pueden evaluar una situación dada en el
momento y actuar siguiendo ciertas directrices y cier-
tos objetivos claramente definidos lo cual involucra la
toma de decisiones. Sin embargo, con el avance tec-
nológico, la evolución de la inteligencia artificial el
campo de los videojuegos ha estado en una situación
crítica si bien se podría decir que estaba estancada. En
la actualidad si bien existe una mayor variedad de es-
tados en los que los PNJ (personaje no Jugador o per-
sonaje controlado por el director) pueden encontrarse
y que sus acciones se han vuelto algo más naturales
y precisas, pero sigue sin verse un salto cualitativo
claro. Actualmente y en la mayoría de juegos, puede
leerse fácilmente el comportamiento de los personajes
manejados por la IA, que pronto se vuelve predecible
y sin una profundidad al contexto de la realidad. La
complejidad y la imprevisibilidad que se atribuye a
la inteligencia quedan relegadas en el campo de los
videojuegos para poco más que la experiencia com-
petitiva o cooperativa contra o junto a otros jugadores
humanos, respectivamente.
2.	DESARROLLO
La inteligencia artificial en los videojuegos es uno de
los primeros juegos en sorprender por la I.A. de sus
jugadores fue  Half-Life un juego de tipo (aventu-
ra, acción, shotter, primera persona) donde nuestros
enemigos eran tan astutos que podían flanquearnos y
combinar granadas con rifles para inmovilizarnos en
cuestión de segundos.
Luego de Half-Life juegos como Thief, lanzado al
mercado el 28 de febrero del 2014 un juego de tipo
aventura donde la experiencia pasaba más por el sigilo
81
y la actitud defensiva, mostraron que una IA además
de saber atacar podía reconocer alteraciones en el es-
cenario y alertarse por ruidos, tanto de nuestro perso-
naje como de cualquier otro elemento.
Otros ejemplos del  avance de la IA se dieron
con shooters como Unreal tornament y Halo (como
se ve en la figura 1). En este período de tiempo los
juegos shotter y de acción donde los enemigos activos
formaban parte principal de la aventura crecieron y
crecieron sin cesar.
Figura 1. Estado de Flow.
Fuente: (Videojuegos Accesibles,2014)
2.1INTELIGENCIA ARTIFICAL EN OTROS
GENEROS DE VIDEO JUEGOS
Antes en la época de la salida de las consolas NES,
Atari, Genesis, no contaban con estos si bien los men-
ciona “Todo el ser está envuelto en esta actividad, y la
persona utiliza sus destrezas y habilidades llevándolas
hasta el extremo.” Mihaly Csikszentmihalyi(1997). El
estado de flow es equilibrio entre el reto que presen-
ta juego y las habilidades del jugador para evitar el
aburrimiento o la frustración era así por decir como
una inteligencia artificial cuya misión era dificultar
de forma automática la situación del jugador en base
a sus habilidades en el juego una descripción grafi-
ca de este sería la de la figura 1. Hoy en día con la
llegada de la inteligencia artificial, algunos géneros
del videojuego podrían verse trastocados para siem-
pre todo esto, aplicado al desarrollo de videojuegos,
podría significar la nueva revolución del medio como
en su día supuso el paso de las dos dimensiones al 3D,
aunque el salto que supondría la inteligencia artificial
tendría consecuencias más profundas todavía. Con
esta tecnología podrían generarse mundos orgánicos
y creíbles, y algunos géneros del videojuego po-
drían verse trastocados para siempre. La estrategia,
por ejemplo, pasaría a enfrentar al jugador a verda-
deros imperios inteligentes que evolucionarían con
total realismo con el paso de los años. Los mun-
dos abiertos podrían estar poblados por numerosos
personajes reales, cada uno con sus características
diferenciadoras, siendo parte, a nivel macro, de
una sociedad con un comportamiento creíble en un
entorno mutable. En juegos narrativos, la capacidad
de comunicación con los personajes a través de una IA
permitiría que no hubiera dos partidas iguales, ya que
mostraría tramas adaptativas a las acciones del juga-
dor es” el sueño de David Cage” David Cage (2016).
“son innumerables las aplicaciones que tendría la in-
teligencia artificial en los videojuegos. Pero, llegados
a este punto, ¿no dejarían de ser necesarios los desa-
rrolladores si una inteligencia artificial equiparable o
superior a la humana estuviese a su servicio? Quizá
hasta dejaríamos de jugar a juegos competitivos
o cooperativos junto a humanos, ya que las IAs
serían más inteligentes y eficientes. Si la realidad
virtual prospera como tecnología y converge con la
inteligencia artificial en el futuro, correremos el riesgo
de vivir atrapados en una suerte de Matrix mientras
las máquinas dominan el mundo real. O, lo que sería
peor, quizá lleguemos a acceder voluntariamente a
ponernos a los mandos de juegos que se introduzcan
en nuestra mente, para acabar trastocando nuestra psi-
que para siempre” David Cage (2015).
A decir verdad, la inteligencia artificial da bastante
miedito. Pero, aun así, valdría la pena el riesgo solo
por ser capaces de jugar a un futuro Portal en el que no
sólo pudiésemos hablar de tú a tú con GLADOS, sino
que, además, esta llegase a desarrollar un odio real por
los jugadores hasta desear su muerte y hacer todo lo
posible para que esta llegase. Eso, sin duda, sería algo
digno de ver.
2.2 EL AVANCE DE LA INTELIGENCIA ARTI-
FICIAL
Desde aquel momento hasta ahora muchos juegos
han dado una buena muestra de lo que una inteligen-
cia artificial puede lograr, sin embargo, aún estamos
mucho más cerca de la palabra «artificial» que de
«inteligencia».
Las nuevas tecnologías y los dispositivos de mayor
capacidad han permitido a los desarrolladores crear
motores más poderosos para los personajes no juga-
dores y con esto Inteligencia Artificial mejorada. Sin
embargo, el avance se ha dado más en forma horizon-
82
tal que vertical, no es tanto que las inteligencias hayan
mejorado, sino que ahora se puede crear más cantidad
de personajes simultáneamente y mayor diversidad de
acciones para los mismos.
Un caso de esto es  Far Cry 3 donde los animales
cuentan con una inteligencia artificial muy avanzada y
donde no solo estos se mueven de un lugar a otro, sino
que también cazan, se esconden, huyen, y cambian de
actitud dependiendo su entorno.
Si continuamos hablando de Far Cry 3 debemos decir
que este juego cuenta con una de las Inteligencias
Artificiales  más trabajadas hasta el momento y la
cantidad de actitudes que puede adoptar un enemigo
es bastante amplia y cambiante. Igualmente, no se ale-
ja mucho de lo que veíamos 10 años atrás con juegos
como Thief.
2.3 EL FUTURO DE LA INTELIGENCIA ARTI-
FICIAL
Las nuevas tecnologías permiten mayor cantidad de
informaciónyvelocidadparaprocesarestainteligencia
artificial, pero se necesita que los programadores
trabajen más en desarrollar estas inteligencias para
que se mejore.
Por otra parte, las IA utilizadas en juegos de estrategia
como Crusader Kingpresentan actitudes diferentes a
las de un FPS y algunos desarrolladores afirman que
ya se ha llegado al límite de su capacidad.
Figura 2. video juego farcry 3.
Fuente:(http://diariodetellus.blogspot.com, 2016)
2.4 INTELIGENCIA ARTIFICIAL EN VIDEO
JUEGOS DE ESTRATEGIA
El trabajo desarrollado en este proyecto se basa en el
diseño e implementación de una inteligencia artificial
diseñada para juegos de género Multiplayer Online
Battle Arena (MOBA) es un género de videojuegos
que se desarrolla en una arena virtual en conexión con
otros jugadores para cumplir un objetivo claro y es-
pecifico, juegos de estrategia en tiempo real, que se
encuentran en auge en la actualidad.
Figura 4. Deep Blue venció a Kasparov.
Fuente(eldiario.es, 2014)
Estudio y análisis de la toma de decisiones de una IA
desarrollada para este género, basado en un análisis
estadístico del entorno, utilizando la información ob-
tenida mediante sensores y rangos, y utilizándola de
forma no lineal.
Análisis de cómo podrá́ variar la inteligencia artificial
en distintas partidas, aun dándose las mismas situacio-
nes, con la posibilidad de modificar el estado interno
en tiempo real para controlar el comportamiento, así́
como la toma de decisiones de nuestra inteligencia
artificial.
“Desarrollo de una interfaz donde será́ posible
visualizar los cambios realizados, así como ajus-
tarlo a la función del usuario que lo maneja.
En último lugar, implementación de la IA, junto a su
estudio realizado anteriormente, dentro de un mini
juego. El mini juego fue realizado para el debug de
la inteligencia artificial y observar su funcionamiento,
con un panel de control para poder visualizar y anali-
zar el estado de la IA además de realizar modificacio-
nes para ajustar el funcionamiento de la misma a los
fines requeridos” Kaplan J. (2015)
2.5 EL FUTURO NOS DEPARA LO QUE LA
INDUSTRIA DECIDA, PERO LOS JUEGOS
SEGUROS, MÁS INTELIGENTES
Es muy probable que la inteligencia artificial en los
videojuegos nunca llegue a alcanzar las cotas que
83
se pretenden en la robótica, por ejemplo, ya que a
priori, no parece que exista una necesidad de que los
personajes creados tengan una vida y pensamientos
completamente propios (incluso cuando ya no juga-
mos al juego).
Aun así, sería interesante que esta tecnología evo-
lucionase lo suficiente como para que fuera posible
crear toda una red de acciones entre personajes den-
tro del juego. Es decir, que nuestras decisiones, lo
que decimos, lo que hacemos, tengan un peso mayor
y generen respuestas más reales y creíbles en el pro-
pio entorno del título un ejemplo de ello es el juego
farCry como se muestra en la figura 2.
Entonces, se antoja raro que los desarrolladores va-
yan a invertir una ingente cantidad de recursos eco-
nómicos en hacer que los personajes puedan pensar
por sí mismos de forma completamente libre. Es una
realidad plausible, pero poco probable.
“Una de las cosas que más preocupa a la industria es
crear entornos reactivos, y lo más interesante es que
esto se empieza a aplicar a otros sectores fuera de los
videojuegos, como simuladores sociales para forma-
ción, reconstrucciones virtuales y simuladores béli-
cos para los ejércitos. Básicamente, estos entornos
reactivos ya existen en muchos juegos, pero se basan
en una relación «causa-efecto»; es decir, yo provoco
algo y en consecuencia pasa algo (la gente huye, el
escenario se derrumba o cambia de forma…).
Juegos como Los Sims son la primera piedra de los
nuevos entornos reactivos y evolutivos, que evolu-
cionan solos, tanto porque nosotros provoquemos
algo como porque, sencillamente, un personaje deci-
da evolucionar él solo.
El acierto de este «simulador social» es cómo está
creado y diseñado su sistema de inteligencia artificial,
ya que se reproducen comportamientos y acciones po-
sibles (previamente definidas por el diseñador) y se
las asocia a elementos concretos del juego. Esto crea
situaciones divertidas al poder interactuar con un ob-
jeto de varias maneras, por ejemplo, en la forma de
comportarse un sim ante los elementos que creamos
dentro de la casa, donde las posibilidades son muy va-
riadas.” Nafia, R (2014).
2.6 INTELIGENCIA ARTIFICIAL GANA A JU-
GADORES PROFESIONALES DE DOTA 2
“La Inteligencia Artificial sigue asombrándonos día a
día por su rápido crecimiento y su capacidad para su-
perar a los humanos en tareas cada vez más humanas
esto se debe a que en la actualidad mucho quipos y
dispositivos funcionan emplean lo que se denomina
redes neuronales o aprendizaje automático.
OpenAI, Inteligencia Artificial  bondadosa creada
por  Elon Musk  para prevenir  los peligros de la
Inteligencia Artificial (básicamente, que se vuelva
más inteligente que nosotros y decida que somos un
estorbo), ha vencido en el juego DotA 2 a los mejores
jugadores profesionales, Danylo “Dendi” Ishutin, Su-
maiL y Arteezy.
Desde que en 1996 el superordenador  Deep
Blue derrotó al campeón del mundo de ajedrez, Gary
Kasparov, como se muestra en la figura 3 la maquina
posea una inteligencia artificial tal que cada moviento
realizado por el oponente era estudiado y analizado
con el fin por poder attrapar o vencer a la víctima y
así muchas otras I.As han vencido a los humanos
en diferentes disciplinas. Pero la victoria de OpenAI
en DotA 2 es mucho más importante y llamativa, por
varias razones.
OpenAI  es  un software avanzado de Inteligencia
artificial patrocinado por Elon Musk, con el objetivo
de desarrollar una IA que no pueda rebelarse contra la
Humanidad, si se vuelve demasiado lista. Durante dos
semanas ha sido entrenada para jugar a DotA2, uno de
los juegos multijugador más populares de los eSports.
Cada día lo juegan más de 10 millones de personas.
Un MOBA en el que varios equipos se enfrentan entre
sí manejando héroes con diferentes poderes.
Cuando se celebró The International (torneo de dota 2
a nivel mundial), el torneo de DotA 2 más famoso del
mundo, con un premio de 24 millones de dólares para
el equipo ganador. Durante el torneo,  OpenAIse ha
enfrentado a algunos de los mejores jugadores del
mundo de DotA 2,
Hace unos días venció en partidas 1v1 (uno contra uno)
a los jugadores Arteezyy  SumaiL  (el mejor jugador
del mundo en 1v1), y recientemente ha ganado 2 a
0 al ucraniano Danylo «Dendi» Ishutin, campeón del
torneo The International.
La victoria de OpenAI en DotA2 supera dos hitos muy
importantes. Por un lado, DotA 2 es un juego mucho
más complicado que el ajedrez o el GO (donde triunfó
la IA de Google), que tienen unas reglas fijas sencillas
de aplicar, y se juegan por turnos. DotA 2 tiene más
84
reglas mucho más complejas, se juega en tiempo real,
y hay que improvisar y ser creativo.
Además, OpenAI no aprendió a jugar a DotA 2 co-
piando estrategias de otros jugadores o almacenando
jugadas, sino que lo hizo jugando consigo misma las
dos semanas y aprendiendo de sus aciertos y erro-
res. En sólo dos semanas, ya juega mejor que los
mejores jugadores profesionales que necesitan años
de práctica. “Se parecía un poco a un humano, pero
otro poco a otra cosa”, ha comentado Danylo “Dendi”
Ishutin tras su doble derrota.
Esta  victoria de OpenIA en DotA 2  reafirma sus
argumentos de que en unos años la Inteligencia
Artificial  será más lista que los humanos,  y si no
se establecen límites podría poner en peligro a la
Humanidad. Hace unas semanas Elon Musk tuvo un
duro enfrentamiento con mark zukerberg.
Ahora OpenIA se prepara para jugar partidas 5v5 en
DotA 2. ¿Qué ocurrirá si alguien pide que dejen par-
ticipar a las IAs en los torneos de eSports?” Springer
A. (2017).
3. CONCLUSION
-Las inteligencias artificiales en los videojuegos se ha-
cen más habilidad a tal punto que los mismos pueden
superar a jugadores profesionales y que llevan años
jugando el mismo juego a la vez esto representa un
reto en muchos jugadores basándose en el pensamien-
to “Como puedo vencido por una maquina”.
-La inteligencia artificial en video juegos durante un
tiempo se quedó parado estancado debido a que no
tenemos los materiales necesarios para hacerlos más
potentes, pero con el paso de tiempo va mejorando.
-El proyecto Desarrollo de un videojuego basado en
inteligencia artificial tiene como objetivo el desarrollo
de un videojuego de estrategia donde el jugador de-
berá planificar una defensa capaz de resistir el ataque
enemigo. Posteriormente, cuando aparezca el enemi-
go, los soldados actuarán de acuerdo a sus mecanis-
mos de toma de decisiones (aunque algunos soldados
pueden ser controlados por el jugador), al igual que
los enemigos.
- Este proyecto ha sido una experiencia muy positiva
que me ha permitido aprender mucho sobre el desa-
rrollo de un videojuego. Ha sido todo un reto y creo
haber aprendido mucho de los errores cometidos.
También debo admitir que me ha resultado divertido y
estimulante trabajar en este tipo de proyecto.
REFERENCIA BIBLIOGRAFICA
Norvig P. y Stuart J. (1999)
Inteligencia Artificial: Un Enfoque Moderno
Palma M. y Morales R. (2008)
Inteligencia artificial. Técnicas, métodos y
aplicaciones
Kaplan J. (2015)
Abstenerse humanos: guía para la riqueza y
el trabajo en la era de la inteligencia artificial
(Estados Unidos)
Asport M. (2017)
The Economics Times
Nafia, R (2014)
Thif.Vandal. Recuperado de http://www.van-
dal.net/juegos/pc/thief/10652
Sebán.A, (22 de mayo de 2017).
El vertiginoso avance de la inteligencia ar-
tificial en los últimos años [mensaje de un
blog]. Recurado de https://blogthinkbig.com/
el-vertiginoso-avance-de-la-inteligencia-ar-
tificial-en-los-ultimos-anos
HypnosMorfeo(Productor). (2015).
La sorprendente historia de la computadora
que venció al campeón de ajedrez Mundial
[MP4]. México.
Marilin,G. (2014).
El fallo de Deep blue que pudo haber
vencido a Kasparov. Diarioturing. Recu-
perado de http://www.eldiario.es/turing/
ciencia/fallo-Deep-Blue-vencido-Kaspa-
rov_0_242876565.html
David C. (2015) Reseña de El videojuego a
Través de David cage
David c. (2016) El sueño de David Cage
Springer A. (2017)
https://www.hobbyconsolas.com/noticias/
inteligencia-artificial-open-ai-vence-campe-
on-dota-2-160122
Csikszentmihalyi M. (1997). Fading
Flow.Kairos.España
Miraena J. (2014). Ajuste dinámico dela dificultad
85
INTELIGENCIAARTIFICIAL EN LOS VIDEOJUEGOS DE ESTRATEGIA
Elías Quispe Álvaro Edson, Loza López Luis Beltrán, Medrano Kantuta Christian Daniel
elias.e3@gmail.com, luislozaleo@gmail.com, chisdtian.dani_23@gmail.com
Universidad Mayor de San Andrés
Carrera de Informática
Gramática Española
RESUMEN
El papel de la Inteligencia Artificial en los videojue-
gos nos hace referencia a las técnicas utilizadas en
distintas computadoras y videojuegos para producir
la ilusión de inteligencia en el comportamiento de los
personajes que no jugadores (PNJ).
En los últimos años los videojuegos evolucionaron
notablemente y con ello las compañías de videojuegos
que poco apostaron por incluir la inteligencia artificial
en sus juegos.
Por ello en este artículo presentaremos la historia de
la inteligencia artificial en los videojuegos de estra-
tegia y finalmente mostraremos Videojuegos que han
realizado un trabajo notable en este aspecto, así como
el porvenir de la inteligencia artificial en este sector.
Palabras clave: inteligencia artificial en los juegos
de estrategia.
ABSTRACT
The role of Artificial Intelligence in videogames refers
to the techniques used in computers and videogames
to produce the illusion of intelligence in the behavior
of non-player characters (PNJ).
In recent years videogames have evolved significantly
and with it the videogame companies that little bet on
including artificial intelligence in their games.
Therefore, in this article we will present the history
of artificial intelligence in strategy video games and
finally we will show Videogames that have done a re-
markable job in this aspect, as well as the future of
artificial intelligence in this sector.
Key words: artificial intelligence in strategy games.
1. INTRODUCCION
Un videojuego o en otro caso un  juego de vídeo es
un software creado para el entretenimiento general y
está basado en la interacción entre una o varias perso-
nas, mediante un aparato electrónico que ejecuta dicho
videojuego, este dispositivo electrónico puede ser una
computadora, una videoconsola, una máquina arcade,
con un dispositivo handheld (por ejemplo un teléfono
móvil) los cuales son conocidos como “plataformas”.
Aunque, usualmente el término “video” en la palabra
“videojuego” se refiere en sí a un visualizador de grá-
ficos rasterizados que hoy en día se utiliza para hacer
uso de cualquier tipo de visualizador.
También entendemos por videojuegos a todo tipo de
juego tanto digital interactivo, con independencia de
su soporte maximizado.
Hay videojuegos muy sencillos y otros más comple-
jos, algunos son capaces de narrar historias y aconte-
cimientos usando audio y video.
Ahora el término de Inteligencia Artificial se refiere a
la capacidad de poder consentir las funciones inteli-
gentes del cerebro humano y todo lo que es altamente
conocido, pero quizás su concepto aun no es compren-
dido, así como tampoco las implicaciones que puede
tener en la informática y en otras diferentes ramas. La
Inteligencia Artificial puede tener muchas revolucio-
nes en estos campos.
El término Inteligencia artificial, va enfatizado a un
programa de computación que es diseñado para reali-
zar determinadas operaciones que se consideran pro-
pias de la inteligencia humana , como el autoapren-
dizaje, y la facultad de razonamiento de un agente
que no está vivo ,como por ejemplo un robot; y la
inteligencia artificial puede ser una revolución en los
distintos campos informáticos.
2. DESARROLLO
La mayoría de personas al escuchar sobre videojue-
gos e Inteligencia Artificial piensan que el juego ideal
es aquel que no se diferencia de personajes que son
máquinas, y personajes que son jugadores reales, pero
estos individuos no se ponen a pensar que Inteligencia
Artificial engloba un sin fin de estudios en el área de
86
inteligencia artificial.
Para comprender mejor se mencionará pequeños con-
ceptos que abarcan los juegos en la Inteligencia Arti-
ficial.
2.1 Sistemas Expertos
Se refiere a programas inteligentes de computación
que utilizan conocimiento y procesos de inferencia,
los cuales resuelven problemas sumamente difíciles
para el ser humano.
Figura 2.1.1 en este ejemplo da un concepto general
de todo los que es un sistema experto en cuanto ala
inteligencia artificial
Fuente (A. Perez y Jaquin 2015)
Los Sistemas Expertos se basan en las Redes Neu-
ronales. Y sus partes son: el Motor de Inferencia, La
Base del Conocimiento, el Subsistema de Explicación
y la Interfaz.
•	 La Base del Conocimiento: es donde se re-
úne todos los datos que el Sistema Experto tiene para
tomar decisiones.
•	 El Motor de Inferencias: intervienen todos
los procesos que manipulan la Base del Conocimien-
to, y también para seleccionar la información solici-
tada por el usuario.
(Por Ejemplo, conjunción, encadenamiento va atrás
hacia delante.).
•	 El Subsistema de Explicación: es el que
analiza la estructura del razonamiento y da una buena
explicación al usuario.
•	 La Interfaz: es el puente de comunicación
importante entre el sistema y el usuario.
2.2 Agentes
Un agente es el que piensa o razona (hacer). Y se di-
ferencian por tener controles independientes, ya que
ellos perciben su entorno, además que son los que se
adaptan a los cambios y alcanzan objetivos distintos.
2.2.1 Agente Racional
El objetivo de un agente racional es obtener mejores
resultados, poseen Actos Reflejos, se basan en Infe-
rencias, ya que son mucho más eficientes que una lar-
ga inferencia en algunos casos. Estudiar la IA en base
a Agentes Racionales, es beneficioso ya que permite
diseñar al agente en base a inferencias. Sin embargo,
por cuestiones de espacio es imposible diseñar una
personalidad perfecta. En la práctica se usa una racio-
nalidad limitada, por razones de tiempo y espacio.
2.2.2 Agente Inteligente
Figura 2.2.1 Un ejemplo en general de lo que es un
agente inteligente.
Fuente (wikispace , 2015)
Es aquel que percibe un medio ambiente, median-
te sensores, pueden ser de un agente robot: Teclado,
red, detectores de luz, etc. Y los activadores pueden
ser una pantalla o la red. Se dice que una agente tiene
percepción si puede recibir múltiples entradas en cual-
quier instante.
En general este agente tomará decisiones de acuerdo
a todas las entradas que recibió.
2.2.3 Agentes de Estímulo-Respuesta
Estos agentes reaccionan a los estímulos que reciben
del mundo exterior, y esta es la forma más sencilla de
Inteligencia Artificial.
87
2.3 Búsqueda Heurística
Se llama Búsqueda Heurística porque usa conoci-
mientos específicos sobre un problema en general.
con la búsqueda podemos encontrar soluciones más
eficientes en el menor tiempo posible.
Aquí encontramos algunas variantes:
2.3.1 Algoritmo *A
Consiste en la forma de búsqueda en el Primero y
el el Mejor más conocido, sirve para la interaccion
(Búsqueda de Caminos) y es muy usada en juegos. Un
ejemplo es el famoso juego Pacman: Los fantasmas
que persiguen a Pacman buscan el camino más corto,
en lugar de aparecer en forma aleatoria en el Mapa
del Juego.
Otro ejemplo es el Age of Empires, un juego de con-
quista de civilizaciones, los enemigos salvan obstácu-
los para llegar a la ciudad del adversario.
El Algoritmo *A, no desarrolla un camino por inte-
racción, sino que desarrolla varios caminos y elige los
más prometedores.
2.3.2 Algoritmo MINIMAX
Se posee DOS jugadores: MAX y MIN, primero ju-
gará MAX y así seguirá el flujo hasta acabar el juego.
Existe un árbol de juegos que los programas utilizan
para calcular los Movimientos Legales permitidos. El
valor MINIMAX será un valor que determine el esta-
do final del juego
(En le ajedrez: -1, 0, 1; que son triunfo, derrota o em-
pate). En algunos juegos este valor MINIMAX puede
ser muy alto (Como en el Backgamon, se estima algo
de -192 a 192 valores).
Incluso el Tictac toe (3 en Raya), es complejo para
armar el árbol de juegos. A los niveles del árbol se
les llama capas las cuales detallaremos más delante de
este articulo como una aplicación.
Para determinar la estrategia óptima a seguir se usan
valores MINIMAX. MAX adoptará el valor máximo
y MIN el mínimo. La decisión MINIMAX supone que
los 2 jugadores son óptimos, si uno es un novato será
fácilmente derrotado por esta decisión.
Figura 2.3.2.1 Un cálculo detallado del árbol de jue-
gos perdería tiempo, pero aquí se ve las estrategias y
los pasos que se da en un algoritmo Minimax.
Fuente (P. y Jaquin enero del 2015)
El Algoritmo MINIMAX es la forma computacional
en la que se calcula el valor MINIMAX de cada estado
de sucesos. Lo interesante del Algoritmo MINIMAX
es que no calcula todo el árbol de juegos, sino que
calcula solo un horizonte de k niveles.
Un cálculo detallado del árbol de juegos perdería
tiempo, ya que como ejemplo, en el ajedrez se calcu-
lan algo de 35100 movimientos totales.
El objetivo de MAX aquí es ganar a MIN tomando
alguna decisión sobre la mejor jugada que se puede
hacer. El Algoritmo MINIMAX no se usa como tal
en los juegos de estrategia que no están identificados
industrialmente.
Industria de Juegos, ya que es en algunas ocasiones
lento, en vez de este se usan versiones optimizadas
que veremos a continuación.
En este caso se va mostrando las muchas versiones
de los juegos que a medida que va transcurriendo el
tiempo va saliendo.
2.3.3 Poda α-β
El resultado del Algoritmo MINIMAX es el valor
MINIMAX que nos permite tomar la decisión más
acertada para el horizonte de búsqueda fijado, no obs-
tante hay ocasiones en el que la ramificación del árbol
de juegos es muy alta. (En ajedrez se calcula algo de
35100 o 10154 movimientos).
Sería un derroche tratar de probarlos todos, esta es la
razón por la cual el Algoritmo MINIMAX no se usa
como tal en la Industria de Juegos. Afortunadamen-
te se puede simplificar el proceso, evitando algunos
nodos.
88
Esto se basa en que al momento de explorar se deter-
mina que el nodo no va a cambiar el valor MINIMAX,
es obviado, ya que no nos va a servir de mucho. Es-
tos nodos quedan “Podados”, ahorrando así tiempo de
proceso en los programas.
El Algoritmo que implementa la poda α-β se llama Al-
goritmo αβ, y se basa en ajustar los límites llamados:
límite -∞ y límite +∞; para el nodo raíz estos son de
-∞ y ∞+; ya que el valor MINIMAX estará entre esos
2 límites. Estos valores se propagan hacia abajo y se
actualizan.
Los nodos MAX actualizan su valor si v>α y los no-
dos MIN actualizan su valor si v<β. La situación de
Poda se detecta si un nodo satisface a α≥β y ello im-
plica obviar la exploración del sub-árbol siguiente y
devolver β como si se tratara de un nodo MIN.
Si no existiera Poda (Es decir no se satisface la expre-
sión α≥β), el algoritmo se comportará como un Algo-
ritmo MINIMAX normal y no se podrá encontrar una
normal funcionalidad incluso no se entenderá nada de
lo que se realiza.
Figura 2.3.3 El resultado del Algoritmo MINIMAX
es el valor MINIMAX que nos permite tomar la de-
cisión más acertada para el horizonte de búsqueda
fijado.
Fuente (P. maylso, 2017)
2.3.4 Algoritmo MTD-f
El hecho de que la llamada al Algoritmo α-β, tenga
los argumentos α0=-∞ y β0=+∞, significa que el valor
MINIMAX v del nodo raíz, satisface a -∞<v<+∞.
Esta es una ventana que se puede cambiar, no muy
deprisa al contrario de lo que queremos, esto consume
tiempo considerable y razonable, por lo que si desva-
loramos los valores habremos ahorrado una gran can-
tidad de tiempo a favor de nosotros.
Si restringimos los valores a: α=β-1, podemos hablar
de Ventana Nula en valor cero, en contradicción a la
clásica y conocida ventana infinita que ya muchos lo
conocemos.
Por ejemplo Una sola llamada al esquema de la Ven-
tana Nula o ero , nos dará una cota, no el valor MINI-
MAX, para hallarlo debemos usar distintas cotas para
modificar los límites de -∞ y +∞, para encontrar el
valor MINIMAX. A este proceso se le llama Algorit-
mo MTD-f.
Las cotas f+ y f-, se inicializan a +∞ y -∞ respectiva-
mente. Luego se comienzan a ajustar las cotas hasta
que se la cota superior iguale o supere a la inferior;
esto se hace en el procedimiento α-β con α=β-1, es
decir búsqueda de Ventana Nula que devuelve g. Si
g<β, ajustamos la cota a ese valor y sino ajustaremos
la cota inferior. Este valor g, nos sirve para ajustar a
β (Por lo tanto de α=β-1) para la siguiente iteración.
El número de estas dependerá de lo lejos que este la
estimación inicial de f del verdadero valor MINIMAX
del nodo raíz.
Figura 2.4.1. demuestra el trabajo que puede ir cau-
sando el algoritmo MTD-f en una persona con capa-
cidad de imaginar muchas cosas.
Fuente (A.Loza , abril 2000 LA PAZ BOLIVIA)
2.4 Inteligencia artificial en Dota 2
Elon Musk es el cofundador y presidente de OpenAI,
una compañía de investigación sin fines de lucro que
trabaja para construir una inteligencia artificial segu-
ra y garantizar que los beneficios de AI se distribuyan
de la manera más amplia y uniforme posible.Open
AI es la inteligencia artificial que logro vencer a los
mejores jugadores de Dota 2 y conquistar completa-
mente dicho videojuego tan complicado. Dota 2 es
un videojuego de tipo MOBA (campo de batalla mul-
tijugador en línea)es un juego de acción estratégico,
en el cual controlamos a un héroe que tiene diferen-
89
tes habilidades.
En concreto, en Dota 2 consta de 113 héroes, cada
uno con sus propias habilidades; con un sinfín de nú-
meros notables de ítems que podemos usar, cada uno
con sus propias características. Es por eso que es un
juego muy conocido y popular entre los adolescentes
y también muy popular en las escenas de los esports,
por que requiere un nivel de concentración, instinto y
capacidad de reacción que tienen pocos.
En todo caso la victoria de una Inteligencia Artificial
en un juego como DOTA 2 es más complicada que
en el ajedrez, algo que se consiguió hace más de 20
años.
Ya que DOTA 2 es un juego en tiempo real en el
que, aunque se juega contra un humano, la improvi-
sación es parte de la partida, precisamente por ser en
tiempo real. Como dato, el ordenador con la IA que
se llevó al torneo utilizó la mundial.
Figura 2.4.1 Se muestra una imagen de la inteligen-
cia artificial en Dota 2
Fuente (A. Perez 2015)
2.4.1 Una IA que parecía humana
OpenAI es una organización sin ánimo de lucro
fundada por Elon Musk; el multimillonario nunca
ha ocultado el miedo que tiene del desarrollo de
Inteligencia Artificial , y cómo puede poner en
peligro a la humanidad. De hecho, Elon Musk
menciono que la AI podría ser más peligrosa para la
existencia de la humanidad que Corea del Norte. Por
eso Musk cree que su deber es investigar el desarrollo
ético de Inteligencia Artificial , y ver hasta dónde
puede llegar dicha inteligencia Artificial. OpenAI
no se dedica a buscar aplicaciones comerciales
para Inteligencia Artificial, como hace DeepMind
de Google; en vez de eso, asegura investigar en
beneficio de la humanidad.
La Inteligencia Artificial creada por sus ingenie-
ros aprendió a jugar en solo apenas dos semanas;
aunque para la Inteligencia Artificial es como si
tuviese “varias generaciones” de experiencia. Eso
es porque Open Inteligencia Artificial usa una red
neuronal para probar una y otra vez con diferentes
versiones de sí misma, hasta que encuentra la más
idónea.
2.4.2 Resultados de OpenAI sobre DOTA 2
Según los jugadores que jugaron con Open AI, nos
cuentan “que sus movimientos durante el juego pa-
recían humanos, pero al mismo tiempo no lo eran”.
Esta inteligencia artificial aprendió movimientos de
los jugadores profesionales, también aplico nuevas
ideas.
Está claro que Open AI puede servir para hacer los
mismo que hacen los humanos, como también aplicar
nuevas soluciones a viejos problemas.
Figura 2.4.1 Se muestra la imagen de un ejemplo en
lo que es el OPEN AI.
Fuente (Equilateral , 2015)
2.5 APLICACIONES DE LA INTELIGENCIA
ARTIFICIAL EN LOS VIDEOJUEGOS
Inteligencia artificial (IA), en un videojuego o juego de
video, hace referencia a las técnicas utilizadas en com-
putadoras y videojuegos para producir la ilusión de in-
teligencia en el comportamiento de los personajes que
no son jugadores (PNJ). Es un agente electrónico que
puede evaluar, pensar y actuar en ciertos principios de
la optimización y la coherencia para cumplir con una
meta o propósito que le fue asignada.
Como la Inteligencia Artificial se centra en el aspecto
de la inteligencia y una buena base al jugar, su en-
foque es muy diferente a la de la Inteligencia Artifi-
cial tradicional, soluciones alternativas y trucos son
90
aceptables y, en muchos casos, las habilidades bajan
el tono para dar a los jugadores humanos un sentido de
justicia. Esto, por ejemplo, es cierto en los videojue-
gos de acción en primera persona, donde la puntería
perfecta estaría más allá de la habilidad humana.
3. CONCLUSIONES
En conclusión, podemos mencionar que la inteligen-
cia artificial en videojuegos actualmente está siendo
aplicada en otras áreas que benefician la humanidad
que aplican soluciones a nuevos problemas de forma
más eficiente, que quizá algunos de nosotros, no nos
damos cuenta, que utilizamos aplicaciones que imple-
mentan Inteligencia Artificial .
También se ve que esta rama de la inteligencia arti-
ficial va sobresaliendo en muchos casos mostrando
muchos juegos con estrategias beneficiando no en su
plenitud a la humanidad.
4. REFERENCIAS BIBLIOGRAFICAS
A. Bol Van Horne, C.; Frayret, J.M. & Poulin, D.
(2005), ‘Knowledge management in
the forest products industry: the role
of centres of expertise’, En los video
juegos 47(3), 167--184.
Aerts J.M, B.D. (2004),Development Of Virtual For
Climate Control Design, in ‘5th IFAC
Workshop On Artificial Intelligence
In strategy games , March 8-10 2004,
Cairo, Egypt’.
Atri, A. (2004),Expert System For Weed Management
Of Wheat Fields In Iran, in ‘5th IFAC
Workshop On Artificial Intelligence
in strategy games, March 8-10 2004,
Cairo, Egypt’.
Bielza, C.; Barreiro, P.; Rodriguez-Galiano, M.I. &
Martin, J. (2003’, Computers a in
strategy games 39(2), 95-113.
Hearn, A.B. & Bange, M.P. (2002), ‘SIRATAC and
CottonLOGIC: persevering with
DSSs in the Australian cotton indus-
try’, artificial intelligence in strategy
games.74(1), 27--56.
Kamel, A. (2004),An Agent-Based Framework For
The Development And Deployment
Of Knowledge Based Systems, in
‘5th IFAC Workshop On artificial in-
telligence in strategy games., March
8-10 2004, Cairo, Egypt’.
Kim, G.; Nute, D.; Rauscher, H.M. & Loftis, D.L.
(2000), ‘AppBuilder for DSSTools:
an application development environ-
ment for developing decision support
systems in Prolog’, artificial intelli-
gence in strategy games.27(1-3), 107-
-125.
Lee, P.G. (2000), ‘Process control and artificial intel-
ligence software for artificial intelli-
gence in strategy games.’, 23(1-3),
13--36.
Li, M. & Yost, R.S. (2000), ‘Management-oriented
modeling: optimizing nitrogen man-
agement with artificial intelligence’,
artificial intelligence in strategy ga-
mes.65(1), 1--27.
Lopez Cruz, I.L.; van Willigenburg, L.G. & van
Straten, G. (2003), ‘Optimal con-
trol of nitrate in lettuce by a hybrid
approach: differential evolution and
adjustable control weight gradient al-
gorithms’, Computers and Electron-
ics artificial intelligence in strategy
games.40(1-3), 179--197.
Park, S.; Hwang, C. & Vlek, P. (2005), ‘Comparison
of adaptive techniques to predict crop
yield response under varying soil
and land management conditions’,
artificial intelligence in strategy ga-
mes.85(1), 59--81.
Pasgianos, G.D.; Arvanitis, K.G.; Polycarpou, P.
Z.Juaquin,2012https://es.wikipedia.
org/wiki/IntelINteligencia_artificial_
(videojuegos)
91
INTERACCION HUMANO-COMPUTADORA (IHC)
Luis Fernando Bautista Mollo, Daniel Velarde Quispe
Xtremo170@gmail.com , danielvelarde309@gmail.com
Universidad Mayor de San Andrés
Facultad de Ciencias Puras y Naturales
Carrera de Informática
Gramática Española
RESUMEN
El presente trabajo tiene por finalidad mostrar la vi-
sión del ser humano con la computadora, de qué ma-
nera se formó una interacción entre ambas, la actua-
lización de la computadora ha llevado al ser humano
a crear nuevas perspectivas de importancia para una
mejor interacción con las máquinas, ya pasó casi un
siglo de interacción humano-computadora y no se ha
podido conjeturar un concepto valido.
Actualmente la mayoría de los sistemas de informa-
ción utilizan las interfaces graficas conocidas amplia-
mente como interfaces graficas de usuario las cuales
se basan en el manejo de imágenes y objetos gráficos
como iconos, ventanas y menús. Sin embargo existen
aplicaciones que requieren el desarrollo elaborado de
interfaces que permitan que las tareas del usuario pue-
dan llevarse a cabo con éxito.
Palabras clave: Usuario, Interface, Software,
Máquina, IHC, Computador, Periféricos, Iconos, Me-
nús.
ABSTRACT
The present work aims to show the human being’s
vision with the computer, in what way an interaction
between them was formed, the computer update has
led the human being to create new perspectives of
importance for a better interaction with the machines,
almost a century of human-computer interaction has
passed and no valid concept could be conjectured.
Currently most information systems use graphical
interfaces widely known as graphical user interfaces
which are based on the management of images and
graphic objects such as icons, windows and menus.
However there are applications that require the ela-
borate development of interfaces that allow the user’s
tasks to be carried out successfully.
Keywords: User, Interface, Software, IHC, Machine,
Computer, My Account, Cell phone, icons, menus.
1. INTRODUCCION
Durante las últimas décadas, la computación logró
grandes avances, en 1930 hubo las primeras interac-
ciones Humano-Computadora (persona-ordenador)
solo disponibles para investigadores, que ayudaban en
los cálculos cómputos y que se iban actualizando a
menudo, desde entonces no se ha podido encontrar un
concepto bien definido sobre el tema humano-compu-
tadora, universalmente es la asignatura que estudia el
intercambio de información mediante software entre
los humanos y las computadoras.
Este artículo presenta la investigación que se ha hecho
en el campo de la interacción humano-computadora
(IHC) en relación a la psicología humana buscando
hacerla entendible y fácil de utilizar, actualmente mu-
chos sistemas de información utilizan las interaccio-
nes con imágenes conocidas como interfaces graficas
de usuario, que basan en el uso de imágenes y objetos
gráficos como iconos, ventanas y menús. También
existen aplicaciones que necesitan el desarrollo de
interfaces que permitan que las tareas de las persona
puedan llevarse a cabo con facilidad y sencillez.
2. DESARROLLO
No hay un concepto bien definida de interacción hu-
mano-computadora (IHC), pero en términos generales
la IHC es un área de las ciencias de la computación
que se encarga del intercambio de información tanto
visual y físicamente entre los humanos y las compu-
tadoras.
Hoy en día la gente interactúa más con las computado-
ras que con las personas que lo rodea.
Figura 1. Interacción Humano-Computador
Fuente (Abascal J, Interacción H-C, 2001)
92
Figura 2. Interacción Humano-Computadora
Fuente (Abascal J, Interacción H-C, 2001)
2.1	 MULTIPLICIDAD DE NOMBRES
Según Armagno G., Martin A., Marichal S. (2010),
Modulo de Extensión NEXO (IPC), hay multiplici-
dad de nombres como:
En español:
Interacción humano- computadora (IHC)
Interacción persona-ordenador (IPO)
Interacción hombre-máquina (IHM)
En ingles:
Human-computer interection (HCI)
Man-machine interection (MM1)
Computer-human interection (CHI)
2.2	Interacción
“El usuario no opera la computadora: se comunica
con ella” (Card. Moran y Newell, 1983).
¿Dónde?
En la interfaz (o interfaz de usuario).
También incluye el software y hardware.
¿Cuándo?
Se produce Interacción desde el momento en que la
persona entra en contacto con la maquina hasta que
deja de entrar en contacto.
Figura 3. Sentarse bien frente a la maquina
Fuente (YouTube Articulo Interacción H-C, 2013)
Esta asignatura de la IHC se encarga de diseñar, eva-
luar e implementar aparatos tecnológicos interactivos,
para así estudiar los problemas más comunes que pue-
dan llegar a afectar.
Figura 4. Diseño de Interfaces
Fuente (AIPO, 2014)
2.3	INTERFAZ DE USUARIO
Es un punto de contacto entre humanos y máquinas
donde ocurre la interacción.
La interacción se realiza a través de dispositivos inter-
mediarios, denominados periféricos.
2.4	 LOS PERIFÉRICOS
Son dispositivos en la cual a través de ellos el ordena-
dor se comunica con el mundo exterior.
Pueden no ser imprescindibles para el funcionamiento
de la computadora.
Estos periféricos siempre están afuera de la CPU.
Periféricos de entrada:
Teclado, ratón, touchpad, apuntador, joystick, touch-
creen, multitouch, screen, gamepad, scanner, micró-
fono, cámara, tablet, lector de símbolos, acelerómetro.
Periféricos de salida:
Monitos, impresora, plotter, parlantes.
2.5	 DISEÑO DE INTERACCIÓN
El diseño de interacción se basa tanto en los distintos
gustos de las personas para así poder tener un mejor
diseño que se adapte al humano y pueda haber una
mayor interacción.
-	Analiza y diseña interfaces de usuario.
-	Crea nuevos tipos de interfaces.
-	Integra y evalúa tecnología.
-	Desarrolla métodos para entender tareas y prácticas
laborales.
-	Evalúa la usabilidad de dispositivos y sistemas.
93
-	Estudia y mejora procesos implicados en el desarro-
llo tecnológico.
2.6	 MODELOS MENTALES
Los modelos mentales en la interacción humano-com-
putadora son representaciones de nuestra mente que
nos permiten predecir el resultado de las acciones en
el mundo y ayudan a una mejor interacción huma-
no-computadora.
2.7	ICONOS
Se define un icono como una señal (como una palabra
o un símbolo gráfico) cuya forma sugiere su signifi-
cado.
En la pantalla de una computadora un icono es cual-
quier representación gráfica que hace referencia a un
objeto o una acción que puede realizar.
2.7.1	 ¿POR QUÉ LAS COMPUTADORAS
UTILIZAN ICONOS?
Es evidente que hay múltiples representaciones de los
objetos en el mundo real y la situación es la misma en
la pantalla de un ordenador, los iconos son las repre-
sentaciones más potentes que permiten el reconoci-
miento inmediato, aumentar la velocidad para que los
individuos puedan encontrar los objetos en la pantalla.
La relación entre un icono y su significado debe ser
automática y en consecuencia independiente de cual-
quier aprendizaje.
Figura 5 Tipos de Iconos (Ejemplo 1)
Fuente (Google Imágenes, 2010)
Figura 6. Tipos de Iconos (Ejemplo 2)
Fuente (Google Imágenes, 2010)
2.8	 MENÚS
Los menús es un grupo de palabras y/o iconos simi-
lares visualmente en una pantalla de ordenador que
permite al usuario seleccionar una acción a realizar.
Para utilizar los menús que aparecen a menudo en la
pantalla d un grupo con cada menú que contiene una
serie de elementos de menú, el usuario debe encontrar
el elemento de menú que corresponde a la acción de-
seada y luego seleccionar ese elemento de menú, este
proceso implica tanto la memoria, el usuario debe de
recordar el mapeo de elemento de menú a la acción
realizada y la búsqueda visual.
Figura 7. Tipo de Menú
Fuente (Google Imágenes, 2010)
2.9	OBJETIVOS
El objetivo de esta asignatura es para mejorar el in-
tercambio de comunicación entre los humanos y las
computadoras, reducir los errores, aumentar la satis-
facción, reducir la dificultad, y lo más importante ha-
cer más productivas y eficientes las tareas que rodean
a las personas y las computadoras.
Uno de los objetivos principales de la IHC es com-
prender como la gente utiliza las máquinas para así
diseñar maquinas más usables.
Un principio general es conocer las fuerzas y debili-
dades de las personas y las computadoras para sacar el
mejor provecho posible de su interacción, en un con-
texto dado.
2.10	PRINCIPALES COMPONENTES
2.10.1	Usuario:
El ser humano tiene una capacidad limitada de proce-
sar información; lo cual es importante al diseñar inter-
94
faces. Nosotros los usuarios nos podemos interactuar
por medio de cuatro canales de entrada/salida que son
la visión, audio, tacto y movimiento, un hecho que no
se puede pasar por alto es que todos los usuarios ten-
drán habilidades comunes, pero habrá otras que varia-
rán según la persona.
Principales capacidades de las personas:
-	Creatividad
-	Iniciativa
-	Manejo de excepciones
-	Habilidad de aprender de la experiencia
-	Manejo adecuando de problemas mal definidos
-	Buenas habilidades motoras
-	Juicio
-	Sentido de Ética y responsabilidad
-	Flexibilidad y adaptabilidad
-	Increíble poder de cálculo.
2.10.2	COMPUTADOR
El computador tiene un límite de velocidad en el
procesamiento, esto afecta a la velocidad de procesa-
miento al hecho de utilizar una red de trabajo u otra.
Principales capacidades de las computadoras:
-	Precisión y posibilidad de repetir tareas
-	Rapidez y exactitud en los cálculos
-	Son inalcanzables
-	Objetividad
-	Paciencia
-	Robustez física
-	Enorme potencia gráfica y sonora
2.10.3	 DISCIPLINAS
Dentro del área de la Integración humano-computador
existen una serie de disciplina y las más importantes
como:
-	Informática
-	Psicología
-	Ciencia Cognitiva
-	Filosofía
-	Lingüística
-	Sociología
-	Antropología
2.11	EVOLUCIÓN	
Las primeras interacciones humano-computador fue
la utilización del lápiz óptico que llevó al desarrollo
de técnicas pioneras para la interacción humano-com-
putador. Muchas de estas nacen desde 1963, año en
que Iván Sutherland desarrolló un Sketchpad para su
tesis doctoral, la cual marcó el inicio de los gráficos
por computadora. A partir de aquel instante se ha es-
tado trabajando en este campo de interacción huma-
no-computadora, creando y mejorando los algoritmos
y el hardware para que permitan mostrar y manipular
objetos con mucho más realismo, todo eso, con la fi-
nalidad de conseguir gráficos interactivos.
Algunos de los avances relacionados fueron intentos
de llegar a una combinación hombre-máquina. A par-
tir de aquí surgió los cimientos de la interacción hu-
mano-computador, como sería el caso del ratón, pan-
tallas con mapas de bits, computadoras personales, la
metáfora de escritorio y las ventanas y los punteros.
Asimismo, el hecho de aplicarse con sistemas ope-
rativos desembocó en la creación de nuevas técnicas
para hacer interfaces de dispositivos de entrada/salida,
controles de tiempo, multiprocesadores y para sopor-
tar el hecho de que se abrieran diversas pantallas o que
hubiera animaciones.
Figura 8. Lápiz óptico
Fuente (Colaboraciones de Wikipedia, 2017)
2.12	APLICACIÓN
Todos los seres humanos son diferentes entre sí, to-
das las interfaces de usuario deberían de acomodarse
a esas diferencias, que cualquier persona fuera capaz
de utilizarlas sin problemas.
2.12.1	 DISEÑO WEB
Es una actividad que consiste en la planificación, di-
seño e implementación de sitios web y páginas web,
no es simplemente una aplicación del diseño conven-
cional ya que requiere tener en cuenta cuestiones tales
como navegabilidad, interactividad, usabilidad arqui-
95
tectura de la información, interacción de medios como
el audio, texto, audio, imagen y video.
Figura 9. Diseño web
Fuente (Google imágenes, 2013)
2.12.2	 DISEÑO KIDS
Este el caso de las interfaces para el manejo de apli-
caciones de software educativo ya que hay elementos
relevantes que deben considerarse en su diseño y en
gran parte del éxito del aprovechamiento del material
que se presenta depende de la una buena interfaz.
Figura 10. Diseño Kids
Fuente (Google imágenes, 2016)
2.12.3	 DISEÑO MÓVIL
Son las interfaces que nos proporcionan usabilidad
para las herramientas multimedia de localización para
nuestros dispositivos móviles.
Figura 11. Diseño Móvil
Fuente (Google imágenes, 2013)
2.13	ERGONOMÍA COGNITIVA
La Ergonomía Cognitiva, es aquella rama que se ocu-
pa de los procesos mentales, tales como la percepción,
la memoria, el razonamiento y la respuesta motora,
que afectan a las interacciones entre los seres huma-
nos y otros elementos de un sistema. Estos temas son
relevantes que incluyen carga de trabajo mental, la
toma de decisiones, el rendimiento experto, la inte-
racción humano-computadora, la fiabilidad humana,
el estrés laboral y la forma como estos pueden estar
relacionados con el diseño de los sistemas humanos.
La ergonomía cognitiva estudia los procesos de cogni-
ción en el trabajo y ajustes operativos, con el objetivo
de optimizar, mejorar el bienestar humano y el rendi-
miento del sistema. Esto es un subconjunto del campo
más grande de los factores humanos y la ergonomía.
2.13.1	OBJETIVOS
La Ergonomía cognitiva también conocida como inge-
niería cognitiva (aunque esto era un campo anterior)
es una rama emergente de los Factores Humanos y la
Ergonomía, que hace especial hincapié en el análisis
de procesos cognitivos de operadores en industrias
modernas y en ambientes de trabajo similares. Los
ejemplos incluyen el diagnóstico, la carga de trabajo,
el conocimiento de los procesos, la toma de decisiones
y la planificación. La ergonomía cognitiva tiene como
objetivo mejorar el desempeño de las tareas cogniti-
vas a través de varias intervenciones como el diseño
centrado en el usuario de la interacción hombre-com-
putador.
2.14	TENDENCIAS YA PRESENTES
2.14.1 JUEGOS DE ORDENADOR
Aplicaciones que más han empleado técnicas de re-
presentación multisensorial combinando los inputs
quinestésicos con los dispositivos de salida visuales
y auditivos.
2.14.2 REALIDAD VIRTUAL
Estamos en los inicios de la próxima revolución de la
IHC, una tecnología que llevará al usuario a atravesar
la pantalla y a entrar en el mundo que hay dentro, un
mundo en el que el hombre puede interactuar con ob-
jetos en 3D cuya fidelidad crece a la vez que la poten-
cia de los ordenadores y los avances de la tecnología.
96
2.14.3 INTELIGENCIA ARTIFICIAL
Es el diseño de programas informáticos que actúan
simulando aspectos de la inteligencia humana, espe-
cialmente en la resolución de problemas.
2.14.4 COMUNIDADES VIRTUALES
Son grupos de personas que comparten el interés por
un tema determinado y que utilizan Internet para co-
municarse.
3	 CONCLUSIONES
El tema de interacción humano-computadora es muy
rico tanto en términos de las disciplinas que extrae de
oportunidades, así como para las investigaciones.
El estudio de la interfaz de usuario proporciona un
enfoque de doble cara para la comprensión de cómo
interactúan los seres humanos y maquinas mediante el
estudio de las interfaces existentes.
Podemos terminar diciendo que la interacción huma-
no-computadora tiene un avance científico increíble
con brillantes ideas, se pueden encontrar soluciones
que mejoren y faciliten la vida humana.
La interacción humano-computadora también puede
satisfacer el aburrimiento de muchas formas con: jue-
gos, redes sociales, música, videos y todo aquello que
se relaciona con la computadora.
Diremos que es muy importante conocer al usuario ya
que todos y cada uno tienen un entendimiento muy
diferente, Es de vital importancia este buen entendi-
miento entre ambas partes dado que sino, la interac-
ción no será posible.
4. REFERNCIAS BIBLIOGRÁFICAS
Abascal J. (2001) La interacción persona-ordenador.
Madrid, España, Editorial AIPO.
Alvarado C. (19-Feb-2017), Interacción Humano
computadora. Recuperado: http://ihcby-
claualvarado.blogspot.com/2017/02/httppla-
yer.html
Armagno G., Martin A., Marichal S. (2010), Modu-
lo de Extensión NEXO (IPC). Recuperado:
http://eva.fing.edu.uy>resource>view
Cañas Delgado J. J. (2004) Personas y maquinas: él
diseño de su interacción desde la ergonomía
cognitiva. Barcelona, España, Editorial Pirá-
mide.
Carrol, Preece, (1994-2002) Interacción Humano
computadora (IS-438), Recuperado: http://
ict.udlap.mx/people/ingrid/clases/is438/
ihc_1.htm
Colaboraciones de Wikipedia (23-Oct-2017), Inte-
racción Persona-Computadora. Recuperado:
https://es.wikipedia.org/wiki /interacci%-
c3%b3n_persona-computador a
Condori Carpio R. F. (2014) Articulo Interacción per-
sona-ordenador Recuperado: https://www.
youtube.com/watch?v=aqrE3w_w8OI
Gea M. (22-Sep-2013), Interacción Persona-Orde-
nador. Recuperado: https://www.goo gle.
com/url?sa=t&sour=web&rct=j&url=h-
ttps://es.slideshare.net/mobile/mgea/te-
ma-1-interaccion-persona-ordenador-2013
&ved=0ahukewjqravt0fxwahvkfzakhcxj
bocqjzgldtar&usg=aovvaw0vtrr4x05sqtb
cyzfms1ta.
Lores Vidal J. (1998-1999) AIPO Interacción perso-
na-ordenador Recuperado: http://aipo.es/
Manchon E. (20-Dic-2004), Que es la Interacción Hu-
mano –Computadora Recuperado: https://de-
sarrolloweb.com/articulos/1758.php
Montuschi P, Sanna A, Lamberti F, Paravati, (Sep-
2014) interacción entre humanos y com-
putadoras. Recuperado: https://www. com-
puter.org/web/computingnow/archive/
september2014-spanish
Pérez Porto J., Gardey A. (2008),
Definición de computadora. Recuperado: ht-
tps://definicion.de/computadora/
Universidad Oberta de Calatayud (20-Sep-2017) In-
teracción Persona-Ordenador Recuperado:
http://estudios.uoc.edu/e s/a signaturas-li-
bres/informatica-multimedia-telecomunica-
cion/interaccion-persona-ordenador/presen-
tacion
97
LAS REDES SOCIALES, EL MAL USO DE LA INFORMACIÓN Y SUS
CONSECUENCIAS
Aramayo Aranibar Daniela Andrea, Rios Acuña Ivan Rodrigo, Roca Cruz Ronaldo Renzo
danniandrea@hotmail.com, ivanrios4@hotmail.com, therockadx92.e@gmail.com
Universidad Mayor de San Andrés
Carrera de Informática
Gramática Española
RESUMEN
En la actualidad las redes sociales llegaron a ser una
parte importante en la vida de las personas ya que nos
permite mantenernos comunicados con cualquier per-
sona.
Una herramienta como esta solo se creería que trae
cosas buenas. Sin embargo, por muy buena que esta
parezca, la moneda tiene otra cara ya que, unas cuan-
tas personas no le dan el uso adecuado a esta tal útil
herramienta, nadie puede estar excluido ya que sean
parientes o conocidos todos conocen a alguien que usa
mal esta herramienta.
Entre las principales desventajas que tienen son: el
gran tiempo que consumen, al ser casi anónimo trae-
ría varias clases de abusos malintencionados, aparte
de dañar la gramática.
Pero para poder determinar las desventajas de las re-
des sociales antes hay que entender bien puntualmente
lo que esta significa
El concepto de red Social hace referencia a una es-
tructura o forma de interacción social que involucra
a un conjunto de personas relacionadas por alguna si-
militud.
En lo siguiente de este artículo se mostrará de manera
más específica algunas de las formas en las cuales se
llega al mal uso de las redes sociales, creando así una
desventaja de las mismas.
Palabras Clave: Redes Sociales, Riesgos, Ciberbull-
ying, Internet, Acoso Virtual, Identidad, Padres, Ado-
lescentes, Web.
1.-INTRODUCCIÓN
Con cada año que pasa, la sociedad va avanzando en
lo que es la tecnología y eso va también a lo que es
las redes sociales ya que tiene una gran importancia
en la sociedad actual, reflejando la necesidad del ser
humano, y como menciono Aristóteles «El Hombre es
un ser sociable por naturaleza”, pero ahora en la ac-
tualidad las redes sociales se ha convertido en uno de
los elementos de Internet más difundidos, que ofrecen
a sus usuarios un lugar común para desarrollar comu-
nicaciones constantes, y es por esto que muchasper-
sonas comparten información que no deberían dar, y
gracias a este mal uso de la información la persona
puede verse afectada psicológicamente por la presión
de atacante ya sea que le estén haciendo un ciberbull-
ying, un acoso virtual o un robo de identidad.
2.-DESARROLLO
2.1.¿Quésonlas Redes Sociales?
Las redes sociales son comunidades virtuales. Es decir
que son plataformas de internet que agrupan a personas
que se relacionan entre sí y comparten información e
intereses comunes, este es justamente su principal ob-
jetivo: entablar contactos con gente, ya sea para vol-
ver a encontrarse con antiguos amigos o para generar
nuevas amistades. Pero permanecer en una red social,
le permite al usuario construir un grupo de contactos.
Este grupo de contactos pueden ser amigos personales
que él conoce, o amigos que no conoce o también, son
contactos que se conocieron mediante el internet.
2.2 ¿Desdecuándoycómosurgieron?
El primer antecedente se remonta a 1995, cuando un
ex estudiante universitario de los Estados Unidos creó
una red social en Internet, a la que llamó classmates.
com (compañeros de  clase.com), justamente para
mantener el contacto con sus antiguos compañeros
de estudio. Pero dos años más tarde en 1997 cuan-
do apareció SixDegrees.com (seis grados.com) esta
rede sociales se basan en la teoría de los seis grados su
nombre fue porque cualquiera en la Tierra puede estar
conectado a cualquier otra persona en el planeta a tra-
vés de una cadena de conocidos que no tiene más de
seis intermediarios. Esta teoría fue propuesta en 1929
por un escritor húngaro llamado Frigyes Karinthy, en
una pequeña historia llamada Chains. Y gracias a esto
se genera en realidad el primer sitio de redes socia-
les, tal y como lo conocemos hoy, que permite crear
perfiles de usuarios, listas de amigos, etc. Luego a
comienzos del año 2000 y especialmente entre el 2001
y el 2002, aparecen los primeros sitios web que
98
promueven el armado de redes basados en círculos
de amigos en línea. Este era precisamente el nombre
que se utilizaba para describir a las relaciones
sociales en las comunidades virtuales. Estos círculos
se popularizaron en el 2003, con la llegada de redes
sociales específicas, que se ofrecían ya no sólo para re
encontrarse con amigos o crear nuevas amistades, sino
como espacios de intereses afines.
2.3¿Cómoeselfuncionamientodeunaredsocial?
Las redes sociales permiten que los usuarios armen
en ella su propia página Web en esta página, las per-
sonas pueden contar quiénes son, hablar de sus gustos
e incluir la información que quieran compartir con su
lista de amigos.
Para crear y mantener una página personal en una red
social, hay que seguir diferentes pasos:
Crear un perfil de usuario en este perfil consiste en
las características que la persona quiere dar a conocer
sobre sí misma, para incorporarse como nuevo
miembro en una red social. En el perfil, la gente
incluye los datos personales que quiere: nombre, di-
rección electrónica, actividades, gustos, intereses, etc.
De cualquier modo, sólo con el nombre y dirección de
email ya puede ser integrante.
Una vez que el usuario tiene un grupo social en la red,
puede comunicarse con sus integrantes, intercambiar
información, subir fotos, compartir música, ver el Per-
fil de otro, etc. (Sanchez, 2009).
2.3.1. Tipos de redes sociales:
Existen dos tipos de redes sociales que son: las redes
sociales horizontales y las redes sociales verticales.
Las redes sociales horizontales.- En esta clase de red
social no va a un tipo específico de usuarios, permite
el uso de libre de cualquier persona algunos ejemplos
de esta serian Facebook, Twitter, Google+, etc.
Las redes sociales verticales: A diferencia del otro este
va dirigido a un tipo determinado de usuarios que ten-
gan un interés en común.
Los verticales profesionales son aquellos que tienen
un nexo profesional y van dirigidas a un tema en con-
creto, algunos ejemplos de redes serian como Linked-
ln o blogs temáticos.
Los verticales de Ocio tienen la finalidad de reunir
usuarios que tengan en común actividades de distrac-
ciones páginas de deportes videojuegos música tales
como Youtube, ESPN, Meristation, etc.
Los verticales mixtos: ofrecen a los usuarios y empre-
sas un entorno específico para desarrollar actividades
tanto profesionales con personales en torno a sus per-
files algunos podrían ser Yuglo, Unience, Pide Cita.
1.4	¿Cuáleslafrecuenciadeusodelasredessocialesenlos
adolescentes?
La mayor parte de las personas que usan las redes
sociales son jóvenes. Las edades promedio de estos
usuarios a nivel mundial son de 12 y 30 años que per-
tenecen al 80% de los usuarios en la cual se pude ver
que en el rango de 12 a 19 años el uso es bastante alto.
¿Qué es lo que más valoran los adolescentes de
sí mismos? La popularidad. ¿Y qué necesita un
adolescente para ser popular? Amigos, humor y
espontaneidad. Esto es lo que se pudo ver a través de
una encuesta realizada a 3500 alumnos secundarios.
Ser popular es tener muchos amigos es la conclusión
que llegaron. También se pudo ver que el 50% de los
chicos visita la red día por medio, el 30% la visita a
diario y el 20% la visita una vez por semana. La iden-
tidad de los adolescentes no puede entenderse sin sus
amigos. Y sin ellos, tampoco es fácil comprender los
usos que hacen de los medios y las tecnologías.
2.5.¿Cuáleslarazónporlacualsontanpopularesentrelos
jóvenes?
Cada día muchos adolescentes eligen unirse a una red
social. Su crecimiento se pudo ver en estos últimos
años llegó de la mano de la llamada Web 2.0, que pro-
puso un nuevo uso de Internet. No fue hasta el año
2000 la red permitía básicamente buscar información.
Pero llegando la Web 2.0 posibilito además la produc-
ción y el intercambio de contenidos por y entre los
usuarios. En la Figura 1 se presenta las redes sociales
que son más usadas actualmente por los adolescentes.
Figura 1. Las Redes Sociales Más Usadas En 2017.
Fuente: (Herrero, 2017).
99
1.6.	Los Riesgos más Dañinos
En la actualidad las redes sociales llegaron a ser una
parte importante en la vida de las personas ya que nos
permite mantenernos comunicados con cualquier per-
sona. Una herramienta como esta solo se creería que
trae cosas buenas, Sin embargo por muy buena que
esta parezca, la moneda tiene otra cara ya que, unas
cuantas personas no le dan el uso adecuado a esta tal
útil herramienta, nadie puede estar excluido ya que
sean parientes o conocidos todos conocen a alguien
que usa mal esta herramienta.
Entre las principales desventajas que tienen son: el
gran tiempo que consumen, al ser casi anónimo traería
varias clases de abusos malintencionados, aparte de
dañar la gramática.
Una encuesta hecha realizada por Microsoft sobre
Seguridad y Privacidad en 2014 entre 1.400 adoles-
centes y 200 colegios. Una de las conclusiones fue
que los chicos menores de 17 años corren un riesgo
más alto por la forma en que usan las redes sociales e
Internet en general. Un 30%, por ejemplo, comparte
información personal con gente que no conoce en la
vida real. Un 39% sube fotos personales y cuatro de
cada 10 llegan a conocer personalmente a un contacto
que era sólo virtual.
Pero para poder determinar las desventajas de las re-
des sociales antes hay que entender bien puntualmente
lo que esta significa
El concepto de red Social alude a una estructura o for-
ma de interacción social que involucra a un conjunto
de personas relacionadas por alguna similitud.En lo
siguiente se mostrará de manera más específica algu-
nas de las formas en las cuales se llega al mal uso de
las redes sociales, generando así una desventaja de las
mismas.Dentro de las desventajas existentes, conside-
raremos:
2.6.1. Uso Excesivo de Redes Sociales
Esta herramienta consume una gran cantidad de tiem-
po ya que es común que se llegue a encontrar con va-
rios temas que no son más que distractores comunes
que reducen nuestro tiempo para realizar algunas ac-
tividades.
El uso excesivo de este llega a causar incomodidad
al estar tanto tiempo sentado a un monitor o con el
celular, lo cual produce problemas a la salud, ya que al
estar de una sola posición o de posiciones que no son
adecuadas pueden causar desde dolor de espalda hasta
deformidad vertebral.
Otro efecto negativo que se encuentra es la alta ex-
posición de nuestros ojos a las altas luminosidades lo
cual podría llegar a ocasionar vista borrosa o incluso
problemas de visión. En la Figura 2 mostramos el por-
centaje aproximado de tipo de uso que hoy en día se
da a las redes sociales.
Figura 2. Las Redes Sociales una causa para el bajo
rendimiento escolar.
Fuente: (Cruz, 2014).
Aunque esta Red Social este enfocada en la comunica-
ción irónicamente lo que su uso excesivo hace que nos
limitemos a la comunicación por este medio alejándo-
nos poco a poco de una buena comunicación directa y
personal al reducirse los temas a simple conversacio-
nes vacías y carentes de sentido.
2.6.2. CiberBullying
Existe persona las cuales usan estas Redes Sociales
para poder colaborar con los demás, Pero también
existen personas las cuales su única finalidad es la de
acosar de forma malintencionada a un grupo o a algu-
na persona vulnerable.
Citando el concepto de Ciberbullying tenemos que “es
el uso de los medios telemáticos para ejercer acoso
psicológico” (Belmontes, 2011).
Analizando el concepto y comparándolo con el abuso
ya sea escolar que llega a ser incluso físico, el ciber-
bullying llega a un daño psicológico lo cual genera
problemas a corto y largo plazo comenzando desde un
aislamiento de la sociedad o incluso el suicidio.
La falta de comunicación de los Padres y la falta de
conocimiento sobre los sitios a los que los menores
acceden, vuelve vulnerables a los menores a caer en
este ciberbullying,
Es claro que el bullying y el Ciberbullying están liga-
dos entre si ya que se extrapola lo cual es un problema
para los menores y más aún cuando no llegan a repor-
tar el abuso.
2.6.3. ROBO DE IDENTIDAD
Existen riesgos a los que se exponen las personas de-
bido a la interacción por medio de las redes sociales
en las que a veces es indispensable mostrar datos per-
sonales, debido a que se hacen públicos, éstos pue-
100
den ser mal utilizados para defraudar, intimidar o en
ocasiones el objetivo principal de aquellos ladrones de
identidad, será dañar la imagen de determinada per-
sona.
Una persona puede ser víctima de un robo de identidad
en redes sociales, cuando alguien logra tener acceso a
sus cuentas y manipula de manera inadecuada los da-
tos que constituyen su identidad, como ser nombre,
domicilio, teléfono, cuentas bancarias, huellas dacti-
lares, fotografías, número de seguro social y demás.
2.6.4. Acoso Sexual
En una encuesta aplicada en octubre del 2014,
por  Pew Research Center  se reveló que “cuatro de
cada diez usuarios en internet han sufrido de acoso y
que un 73% de ellos han sido testigos del acoso que
otra persona ha sufrido”.
Otra forma de acoso en redes sociales, cuando las per-
sonas se exponen a otras persona cuando proporcio-
nan su correo electrónico o aceptando solicitudes de
amistad de cualquier persona
En el año 2009 Sophos creó dos usuarios ficticios
de Facebook, con los anagramas de identidad falsa e
identidad robada, y desde sus cuentas se enviaron 100
solicitudes de amistad a un grupo de personas entre
una determinada edad, los cuales en un tiempo de dos
semanas aceptaron tales solicitudes.
El acoso comienza comúnmente pidiendo la foto de
la víctima y seguida por algún video con contenido
erótico, con el tiempo las conversaciones llegan a ser
incomodas para el usuario mientras que el acosador
comienza a difundir la información con el fin de dañar
a la persona.
2.6.5. Pornografía infantil y Pedofilia
Si reunimos ideas de los dos puntos anteriores inme-
diatos, Aplicando en el caso de que la víctima sea un
menor de edad el niño puede estar en riesgo de sufrir
algún daño, tal como ser víctima de pornografía in-
fantil o pedofilia, actualmente conocida por el nuevo
término “Grooming”.
Si para llevar a cabo la ubicación de un pedófilo, es un
trabajo complejo. Debido a que en redes sociales no se
conoce la información completa de los usuarios, es de
notar que para localizar a un pedófilo o aquella perso-
na que distribuye imágenes o videos con contenido de
pornografía infantil, será aún más difícil debido a que
el usuario, puede ser falso y además por el hecho de
que puede operar desde el otro lado del mundo.
Para conocer el medio en el cual el grooming o pe-
dofilia podría llegar a ser más propenso, se realizó
una encuesta en el año 2013 entre las principales redes
sociales, en la cual un 75.4% aseguro que Facebook
y Twitter fueron en los que esta acción resulto más
probable, ya que son las más populares. En la Figura
3 se puede observar el porcentaje de los medios en los
cuales el gromming ocurre con frecuencia.
Figura 3. Grooming, el 68,3% de los encuestados
cree que es una amenaza muy frecuente.
Fuente: (Goujon, 2013).
2.6.6. Trata de Personas
Por otro lado si ponemos el ejemplo de una página
para conseguir pareja o cualquier red social en la que 2
usuarios puedan tener una salida de amigos o relación
amorosa, tenemos que a través de engaños y de falsa
información se puede dar una cita en la que se tenga la
oportunidad de conocerse físicamente ambas partes,
y como consecuencia de esos engaños se presente un
secuestro y una posible explotación sexual.
Considerando el caso del secuestro es posible que la
víctima se traslade hasta el otro lado del mundo, lo
cual complica su localización y proporciona muchos
problemas tanto para éste como para su familia. Se-
guida de La explotación sexual que es una posibilidad
comúnmente en las mujeres acompañada del maltrato
físico y emocional.
Las desapariciones, siempre están ligadas con el de-
sarrollo de alguna actividad ilícita, en lo general se
llevan a cabo para generar sobre los afectados la eje-
cución de algún trabajo fuera de la ley o para algún
tipo de esclavitud.
101
1.7.	Riesgos no Dañinos
Cambiando un poco la idea, de la forma en que las
redes sociales están vinculadas con algún tipo de daño
a la sociedad, tenemos:
2.7.1. Posible daño a la gramática
La forma de comunicación que se presenta común-
mente en la sociedad, se da de tal forma que la in-
teracción sea fácil además que presente una forma
propia de comunicación. Así que, tenemos que ciertas
personas suelen modificar su estructura gramatical de
tal forma que este tipo de manipulación, propicia una
pérdida de información, y también la falta de com-
prensión de texto.
Tal como citó Mario Vargas Llosa: “El Internet ha aca-
bado con la gramática, ha liquidado la gramática. De
modo que se vive una especie de barbarie sintáctica”(-
Vargas, 2011), haciendo referencia a los mensajes que
comúnmente suelen escribir jóvenes, el celular y en
redes sociales.
A tal actividad de acortar palabras y relacionarlas con
su fonética para ser expresadas en un fragmento tex-
tual, además de que cada vez es más difícil de com-
prender, genera un retroceso en la gramática, que en
lo general es la base de la comunicación y que durante
años se han desarrollado suficientes herramientas que
facilitan la comunicación escrita.
También podemos suponer que manipulación de al-
gunos términos, al ser redactados en las redes sociales
sólo se da entre estos, como una forma útil de facilitar
la escritura, pero de no ser así también generará daños
en el vocabulario.
2.7.2. Omisión de Acentos
Es común que se omiten los acentos, la ausencia de es-
tos ocurre desde la búsqueda de información, hasta el
diálogo en la web, donde más se presenta, lo cual pue-
de generar confusión: como ejemplo consideremos los
significados de las palabras “difícil” y “espectáculo”.
2.7.3. Reemplazo de letras
Por ejemplo al cambiar la letra k por q o el uso de
esta para acortar el uso de la palabra que, es decir se
reemplaza “que” por “q” o “k” .En el uso de algún tér-
mino extranjero, la letra h por la letra j, como ejemplo
tenemos hard por jar.
1.8.	 Como darle un buen uso las Redes Socia-
les y el Internet
Es importante que los padres o tutores establezcan re-
glas para el uso del Internet y redes sociales por parte
de los hijos y sean conscientes de las actividades en
línea que puedan llevar a cabo. También deberían ase-
gurarse de que navegar en internet no distraiga a los
jóvenes y niños de las tareas escolares, las actividades
sociales y otros intereses importantes.
Probablemente las personas se comporten decente-
mente en la red, pero algunos son groseros y malin-
tencionados en la vida real. Es por esto que cada padre
está en el rol de advertir a sus hijos que deben tener
cautela de no dar información a personas extrañas
en el Internet como ser: nombre, dirección, teléfono,
edad, el lugar donde estudia, número de tarjeta de cré-
dito, etc.
Ten en cuenta que lo que no dices en persona no lo
digas por Facebook. Tenemos que darle un buen uso
a las redes sociales y saber qué es lo que decimos o
vamos a publicar, del mismo modo con las fotogra-
fías. Recordemos que las redes sociales son mundiales
y que todo lo que digas o hagas puede ser visto por
muchas personas
Las redes sociales te dan la opción de personal la pri-
vacidad de tu perfil. Donde tú puedes elegir quienes
tiene acceso a ver tus fotos, información personal y
publicaciones. Ya sean solo tus amigos, solo tú, o los
amigos de tus amigos o cualquier otra persona, mejor
dicho todos.
3.-CONCLUSIONES
Como se tiene contemplado, en la vida existen cosas
que tienen las propiedades de ser ventajosa en su uso,
ya que la facilitan y dan lugar a desarrollar muchas
más actividades. Pero se debe de considerar que, en la
mayoría de esas se puede encontrar alguna desventaja,
que terminó por dañar y/o complicar la actividad para
la cual fueron creadas, pero también debemos de ha-
cer notar que este tipo de desventajas son ocasionados
por quien proporcione un mal o inadecuado uso.
Como es el caso de este tipo interacción social, des-
de su creación han facilitado la vida de quienes usan
estas redes, debido a las herramientas que en esas se
proporcionan, lamentablemente no siempre son usa-
das correctamente, como es común en cualquier obje-
to, tales como aquellos que son adaptados para fines
bélicos y que proporcionan innumerables y graves
consecuencias en la sociedad.
Cabe destacar que las desventajas de las redes socia-
les existen, tal como el hecho, del uso excesivo de las
mismas, que tiene por consecuencia pérdida de tiempo
o bien una actividad que no es realmente productiva.
Para el caso del robo de identidad, al ser usuario se
debe considerar aquellos datos que son publicados
102
ya que pueden ser mal utilizados, y que producto esa
acción terminarán por dañar la vida del dueño de la
cuenta hackeada.
En el aspecto del acoso que se sufre en redes sociales,
este se presenta principalmente por la falta de comu-
nicación, entre la víctima y su familia, lo cual evitaría
las horribles consecuencias, tales como el suicidio, se-
cuestro, trata de personas y explotación sexual. Tam-
bién debemos de hacer notar que la forma en la que se
desarrolla la sociedad está vinculada con la interac-
ción de las personas, si se lleva a cabo la manipula-
ción de palabra que para un grupo de personas, es de
identificación pero que para la mayoría es motivo de
confusión, termina por romper los lazos generales de
comunicación escrita o en ocasiones hablada.
Recordando que la naturaleza nos proporciona sufi-
cientes herramientas para desarrollarnos libremente y
las necesidades propias de la sociedad conllevan a la
creación de cierto tipo de elementos que generen una
vida cómoda, pero que el mal uso de las mismas puede
ocasionar cierto tipo de incomodidad.
Notando que todo es relativo, en algo tan ventajoso
es posible (bajo ciertas condiciones) hallar sus des-
ventajas.
4.-REFERENCIAS BIBLIOGRAFICAS
Autor Desconocido. (2017). Las redes sociales más
usadas en 2017. Recuperado de https://www.
multiplicalia.com/redes-sociales-mas-usa-
das-2017/
Autor Desconocido. (2017). 5 Riesgos en las redes
sociales para niños y jóvenes. Recuperado de
https:// www.unionguanajuato.mx/
Autor Desconocido. (2012). Tipo de redes sociales
Recuperado de: http://www.tiposde.org/in-
ternet/87-tipos-de-redes-sociales/
Autor Desconocido. (2013) Robo de Identidad en
las Redes Sociales Recuperado de: http://
orientauin.tumblr.com/post/44316171512/
robo-de-identidad-en-las-redes-sociales
Arvidson, Erik. (2011). Problemas de robo de iden-
tidad en Facebook. Recuperado de: http://
www.ehowenespanol.com/problemas-ro-
bo-identidad-facebook-info_279805/
Belmontes, J. (2011).  Manténgase seguro de las redes
sociales. Por tu seguridad, Gobierno que tra-
baja y logra en grande. Recuperado de: http://
portal2.edomex.gob.mx/idcprod/groups/
public/documents/edomex_archivo/recono-
cer_pdf_seg124.pdf
Casas, Ximena. (2014). Adolescentes en riesgo: el
40% comparte datos con desconocidos por
las redes sociales. Recuperado de: https://
www.cronista.com/negocios/Adolescen-
tes-en-riesgo-el-40-comparte-datos-con-des-
c o n o c i d o s - p o r - l a s - r e d e s - s o c i a -
les-20140331-0042.html
Covelli, Monica. (2016). Uso adecuado de las redes
sociales y el internet. Recuperado de:http://
www.lasallebga.edu.co/web/index.php/pu-
blicaciones/157-uso-adecuado-de-las-re-
des-sociales-y-el-internet
Del Rio, Patricia. (2011). Uso y abuso de la ortogra-
fía en las redes sociales según dice la real
academia española. Recuperado de: http://
radio.rpp.com.pe/letraseneltiempo/uso-y-
abuso-de-la-ortografia-en-las-redes-socia-
les%E2%80%A6-%C2%BFque-dice-la-re-
al-academia-de-la-lengua-espanola/
Doug, Gross. (2014). 4 de cada 10 personas en in-
ternet han sufrido acoso: encuesta. Re-
cuperado de: http://mexico.cnn.com/
tecnologia/2014/10/26/4-de-cada-10-perso-
nas-en-internet-han-sufrido-acoso-encuesta
López, José. (2017). Las redes sociales en números:
WhatsApp, Facebook, Instagram y Twitter.
Recuperado de: https://blogthinkbig.com/
las-redes-sociales-en-numeros-whatsapp-fa-
cebook-instagram-y-twitter
Sanchez Alejo O. A. (2009). Las redes sociales en
la actualidad. Recuperado de http://www.
monografias.com/trabajos-pdf5/redes-so-
ciales-actualidad/redes-sociales-actualidad.
shtml/
Sophos (2007) El 41% de los usuarios de Facebook
revela información personal a cualquiera
Recuperado de: https://www.sophos.com/
es-es/press-office/press-releases/2007/08/fa-
cebook.aspx
Cruz,Marcia.(2015).LasRedesSocialesunacausapara
el bajo rendimiento escolar. Recuperado de:
http://www.monografias.com/trabajos106/
redes-sociales-causa-rendimiento-escolar/
redes-sociales-causa-rendimiento-escolar.
shtml#ixzz4x359moDb
Goujon, André. (2013). Grooming, el 68,3% de
los encuestados cree que es una amena-
za muy frecuente. Recuperado de: https://
www.welivesecurity.com/la-es/2013/03/13/
grooming-683-ncuestados-cree-amena-
za-muy-frecuente
103
LA ROBÓTICA REVOLUCIONANDO AL MUNDO O LA HUMANIDAD
REVOLUCIONANDO AL MUNDO
Alarcon Aruquipa Andony Renan, Condori Quispe Miguel Angel
Andonyaa@gmail.com, tsintech123@gmail.com
Universidad Mayor de San Andrés
Carrera de Informática
Gramática Española
RESUMEN:
Con el pasar de los años la ciencia que estudia la ro-
bótica ha ido evolucionando junto a la humanidad, la
historia relata que desde tiempos que no creeríamos
los robots han sido una idea no impulsada, en la era
contemporánea debido a la revolución industrial, nos
dimos cuenta que era necesario una ayuda extra a la
mano humana, debido a este pensamiento la automa-
tización de tareas del hombre la robótica y sus fun-
ciones se han desarrollado a niveles increíbles, a esta
ciencia se le suman sus ventajas y desventajas que dan
que pensar a nuestras generaciones, ya que no sola-
mente está en juego nuestro futuro si no el de nuestros
sucesores.
Palabras Clave: Inteligencia, robótica, robot, huma-
nidad, tecnología.
ABSTRACT:
Over the years the science that studies robotics has
evolved along with humanity, history tells us that
since times we would not believe robots have been
an idea not driven, in the contemporary era due to the
industrial revolution, we gave ourselves account that
it was necessary an extra help to the human hand, due
to this thought the automation of man’s tasks robotics
and its functions have developed to incredible levels,
to this science are added their advantages and disad-
vantages that give our thinking to our generations,
since not only our future is at stake but that of our
successors.
Keywords: Intellingence, robotic, robot, humanity,
tecnology.
1.	 INTRODUCCIÓN
La robótica tomó sus inicios en el Siglo XVIII cuan-
do Joseph Jacquard inventó la primera máquina textil
programable con tarjetas perforadas en 1801, poste-
riormente esta idea sería impulsada gracias a la revo-
lución industrial. A partir de ese instante, la idea ha
ido evolucionando
con el pasar de los años y se han ido plasmando en
libros, se ha dicho que durante estos siglos XVII y
XVIII muñecas mecánicas ingeniosas con algunas
características de robots se fabricaron. Una gran in-
terrogativa que ha nacido con la innovación de estos
sistemas robóticos con el pasar del tiempo es: La ro-
bótica está revolucionando al mundo o la humanidad
está revolucionando al mundo.
Esta pregunta nace de la inseguridad de algunas per-
sonas que ya sea por diferentes motivos no se sienten
seguros con la idea de que un robot este a tu servicio,
lo que piensan muchas personas es el remplazo de
nuestra raza.
2.	 DESARROLLO
Para darnos un mayor entendimiento del gran avance
de la robótica, sus ventajas y desventajas veremos la
historia y los usos que le damos en la actualidad.
1.1.	ENTENDAMOS LA ROBÓTICA
La robótica, una rama de la tecnología que se dedica
al diseño, construcción, operación, disposición estruc-
tural y aplicación de robots. En esta rama se combinan
diversas disciplinas de estudio como: la mecánica, la
electrónica, la informática, la inteligencia artificial y
la física.
Yasí dependiendo de la función de dicho robot se
variarán las disciplinas empleadas en la creación
de este “robot”.
1.2.	LEYES DE LA ROBÓTICA
Escrita por Isaac Asimos en 1942, y reutilizada mu-
chas veces en los universos de sus obras escritas, estas
normas o leyes de la robótica están inscritas en todo
aparato robótico de dichas obras, el hecho de estar es-
critas en libros de ciencia ficción no le quita la impor-
tancia y/o coherencia de estas leyes. Las cuales son:
104
•	 Un robot no puede dañar a un ser humano o, por
inacción, permitir que un ser humano sufra daño.
•	 Un robot debe cumplir las órdenes de los seres hu-
manos, excepto si dichas ordenes entran en con-
flicto con la primera ley.
•	 Un robot debe proteger su propia existencia en la
medida en que ello no entre en conflicto con la pri-
mera o la segunda ley.
1.3.	 CLASIFICACIÓN DE LA ROBÓTICA
Se pueden clasificar por dos maneras por generacio-
nes cronológicas y por su arquitectura.
1.3.1.	 SEGÚN SU CRONOLOGIA
1.2.0.1	 1° GENERACIÓN
Manipuladores. Son sistemas mecánicos multifun-
cionales con un sencillo sistema de control,
bien manual, de secuencia fija o de secuencia
variable.
1.2.0.2.	2° GENERACIÓN
Robots de aprendizaje. Repiten una secuencia de mo-
vimientos que ha sido ejecutada previamente por un
operador humano. El modo de hacerlo es a través de
un dispositivo mecánico. El operador realiza los mo-
vimientos requeridos mientras el robot le sigue y los
memoriza.
1.2.0.3.	3° GENERACIÓN
Robots con control sensor izado. El controlador es una
computadora que ejecuta las órdenes de un programa
y las envía al manipulador para que realice los movi-
mientos necesarios.
1.2.0.4.	4° GENERACIÓN
Robots inteligentes. Son similares a los anteriores,
pero además poseen sensores que envían información
a la computadora de control sobre el estado del proce-
so. Esto permite una toma inteligente de decisiones y
el control del proceso en tiempo real.
1.2.1.	 POR SU ARQUITECTURA
Se defina a la arquitectura por las características físicas
del robot, su función no influye en esta clasificación,
sin embargo, debido a sus únicas características habrá
tareas y/o funciones que no todas podrán cumplir.
1.2.1.1.	 POLIARTICULADOS
En este grupo están los Robots de muy diversa forma
y configuración cuya característica común es la de ser
básicamente sedentarios (aunque excepcionalmente
pueden ser guiados para efectuar desplazamientos li-
mitados) y estar estructurados para mover sus elemen-
tos terminales en un determinado espacio de trabajo
según uno o más sistemas de coordenadas y con un
número limitado de grados de libertad”. En este grupo
se encuentran los manipuladores, los Robots indus-
triales, los Robots cartesianos y se emplean cuando
es preciso abarcar una zona de trabajo relativamente
amplia o alargada, actuar sobre objetos con un plano
de simetría vertical.
1.2.1.2.	 MÓVILES
Son Robots con grandes capacidades de desplaza-
miento, basadas en carros o plataformas y dotados de
un sistema locomotor de tipo rodante. Siguen su ca-
mino por telemando o guiándose por la información
recibida de su entorno a través de sus sensores. Estos
Robots aseguran el transporte de piezas de un punto a
otro de una cadena de fabricación. Guiados mediante
pistas materializadas a través de la radiación electro-
magnética de circuitos empotrados en el suelo, o a tra-
vés de bandas detectadas fotoeléctricamente, pueden
incluso llegar a sortear obstáculos
1.2.1.3.	 ANDROIDES
Son Robots que intentan reproducir total o parcial-
mente la forma y el comportamiento cinemática del
ser humano. Actualmente los androides son todavía
dispositivos muy poco evolucionados y sin utilidad
práctica, y destinados, fundamentalmente, al estudio y
experimentación. Uno de los aspectos más complejos
de estos Robots, y sobre el que se centra la mayoría
de los trabajos, es el de la locomoción bípeda. En este
caso, el principal problema es controlar dinámica y
coordinadamente en el tiempo real el proceso y man-
tener simultáneamente el equilibrio del Robot.
105
1.2.1.4.	 ZOOMÓRFICOS
Los Robots zoomórficos, que considerados en sentido
no restrictivo podrían incluir también a los androides,
constituyen una clase caracterizada principalmente
por sus sistemas de locomoción que imitan a los diver-
sos seres vivos. A pesar de la disparidad morfológica
de sus posibles sistemas de locomoción es convenien-
te agrupar a los Robots zoomórficos en dos categorías
principales: caminadores y no caminadores. El grupo
de los Robots zoomórficos no caminadores está muy
poco evolucionado. Los experimentados efectuados
en Japón basados en segmentos cilíndricos biselados
acoplados axialmente entre sí y dotados de un movi-
miento relativo de rotación. Los Robots zoomórficos
caminadores multimedios son muy numerosos y están
siendo experimentados en diversos laboratorios con
vistas al desarrollo posterior de verdaderos vehículos
terrenos, piloteando o autónomos, capaces de evolu-
cionar en superficies muy accidentadas. Las aplicacio-
nes de estos Robots serán interesantes en el campo de
la exploración espacial y en el estudio de los volcanes.
1.2.1.5.	 HÍBRIDOS
Estos Robots corresponden a aquellos de difícil cla-
sificación cuya estructura se sitúa en combinación
con alguna de las anteriores ya expuestas, bien sea
por conjunción o por yuxtaposición. Por ejemplo, un
dispositivo segmentado articulado y con ruedas, es
al mismo tiempo uno de los atributos de los Robots
móviles y de los Robots zoomórficos. De igual forma
pueden considerarse híbridos algunos Robots forma-
dos por la yuxtaposición de un cuerpo formado por un
carro móvil y de un brazo semejante al de los Robots
industriales. En parecida situación se encuentran al-
gunos.
1.3.	 LA ROBÓTICA Y SUS APLICACIONES
La historia de la robótica ha estado unida a la cons-
trucción de “artefactos”, que trataban de materializar
el deseo humano de crear seres semejantes a nosotros
que nos descargasen del trabajo.
1.4.	 LEGUAJE DE PROGRAMACIÓN EN LA
ROBÓTICA
Un gran obstáculo en la utilización de los manipu-
ladores como máquinas de uso general es la falta de
comunicación eficaz y apropiada entre el usuario y el
sistema robótico, de forma que éste pueda dirigir al
manipulador para cumplir una tarea dada. Hay algu-
nas formas de comunicarse con un robot, y los tres
grandes enfoques para lograrlo son: el reconocimiento
de palabra discreta, enseñar y reproducir y lenguajes
de programación de alto nivel.
1.5.	 LA INTELIGENCIA DEL ROBOT
El problema básico en la robótica es la planificación
de movimiento para resolver alguna tarea pre especifi-
cada, y luego controlar al robot cuando ejecuta las ór-
denes necesarias para conseguir esas acciones.La in-
vestigación sobre resolución de problemas con robots
ha conducido a muchas ideas acerca de los sistemas
para la resolución de problemas en inteligencia arti-
ficial. La discusión hace énfasis en la resolución del
problema o aspectos de planificación de un robot. Un
planificador de robot intenta encontrar una trayectoria
desde nuestro mundo del robot inicial hasta un mundo
del robot final. El camino consiste en una secuencia de
operaciones que se consideran primitivas para el siste-
ma. Una solución a un problema podría ser la base de
una secuencia correspondiente de acciones físicas en
el mundo físico.
1.6.	 LA ROBÓTICA Y SUS USOS
1.6.1.	 LA ROBÓTICA Y LA INDUSTRIA
Los robots son utilizados para una variedad de proce-
sos industriales como, por ejemplo: la soldadura de
punto y soldadura de arco, pinturas spray, transporta-
ción de materiales, moldeado en la industria plástica,
maquinas-herramientas, y varias más.
1.6.2.	 TRANSFERENCIA DE MATERIAL
Son operadores en las cual es el objetivo primario es
mover una pieza de un lugar a otra. Se suelen con-
siderar entre las operaciones más sencillas o directas
de realizar por estos sistemas. Las aplicaciones nor-
malmente un robot poco sofisticado y con equipos de
asistencia típicamente simples.
1.6.3.	 CARGA DE MÁQUINAS
El robot debe cargar la pieza de trabajo en bruto en
las máquinas, pero la pieza se extrae mediante algún
otro medio. En una operación de prensado, el robot
se puede programar para cargar láminas de metal en
la prensa y las piezas acabadas se permite que caigan
106
fuera de la prensa por gravedad.
1.6.4.	 DESCARGA DE MÁQUINAS
La máquina produce piezas acabadas a partir de ma-
teriales en bruto que se cargar directamente en la ma-
quina sin ayuda externa. El robot descarga la pieza de
la máquina. Ejemplos de esta categoría son las aplica-
ciones de fundición de troquel y moldeado plástico.
1.6.5.	 OPERADORES DE PROCESAMIENTO
Existe una gran clase de aplicaciones en las cuales
el robot realmente efectúa trabajo sobre piezas. Este
trabajo casi siempre necesitaba que efecto final del
robot sea una herramienta en lugar de una pinza. Por
tanto, la utilización de una herramienta para efectuar
el trabajo es una característica distinta de este grupo
de aplicaciones. El tipo de herramienta depende de la
operación que de procesamiento que se realiza.
1.6.6.	 EDUCACIÓN
Los robots están apareciendo en los salones de clases
de tres formas distintas.
Primero, los programas educacionales utilizan la si-
mulación de control de robots como un medio de en-
señanza.
Un ejemplo palpable es la utilización del lenguaje de
programación del robot Karel, un subconjunto de Pas-
cal; la máquina es utilizada para la introducción de a
la enseñanza de la programación.
El segundo, y de uso más común, es el uso del robot
´tortuga´ en conjunción con el lenguaje LOGO para
enseñar ciencias computacionales. LOGO fue creado
con la intención de proporcionar al estudiante un me-
dio natural y divertido en el aprendizaje de las mate-
máticas.
En tercer lugar, está el uso de los robots en los salones
de clases. Una serie de manipulaciones de bajo costo,
robots móviles, y sistemas complejos han sido desa-
rrollados para la utilización en los laboratorios edu-
cacionales. Debido a su bajo costo, muchos de estos
sistemas no poseen fiabilidad, no presentan sensores y
en su mayoría carecen de software.
1.6.7.	 MILITAR
La robótica ha producido muchos avances militares en
cuanto a tecnología de combate se refiere. Actualmen-
te el ejercito de los Estados Unidos utiliza una serie
de robots terrestres que están equipados con equipos
GPS, cámaras láser y de visión nocturna, y radares, y
tienen la capacidad de moverse sobre terrenos muy di-
fíciles. Su tarea, por el momento, es ayudar en la bús-
queda de sobrevivientes, reconocer terrenos y testear
armas químicas. Sin embargo, hay algunos prototipos
que ya tienen la capacidad de evaluar juicios instantá-
neos y de actuar conforme a ellos, es decir; crear un
plan. En la aeronáutica militar se ha implementado,
hace unos años, aviones espías que son utilizados para
reconocimientos en zonas urbanas. Tienen la habili-
dad de reconocer como objetivos concretos, incluso
entre una multitud. Son muy útiles en ese campo así
como en la persecución de objetivos en tiempo real
.La Marina tampoco se ha quedado atrás, y cuenta en
sus filas con robots anfibios autómatas diseñados para
sumergirse a grandes profundidades.
Se los utiliza en busca de minas de mar y posibles
barcos enemigos; tiene que emerger para transmitir la
información vía satélite, pero permanecer durante un
mes en el océano sin la necesidad de ser realimentado
con energía .Otro avance en el campo militar son los
robots que detectaron y desactivan minas terrestres.
1.7.	 VENTAJAS
Las ventajas de la sustitución humana por el robot son
eminentemente inmensas e infinitas. Ya que sin la
ayuda de esta el ser humano no hubiera sido capaz de
evolucionar hasta el punto que hemos llegado ahora.
•	 Gracias a la robótica el ser humano ha po-
dido dedicar su tiempo a mejora la calidad de vida al
aplicarla constantemente y sustituyéndose a sí mismo
en labores repetitivas y agotadoras.
•	 Los robots permiten a los investigadores a
entender algunas funciones imposibles de desentrañar
directamente a través de la experimentación animal.
•	 Son manipuladores multifuncional reprogra-
mable con varios grados de libertad, capaz de manipu-
lar materias, piezas, herramientas o dispositivos espe-
ciales según trayectorias variables programadas para
realizar tareas diversas.
•	 Se utiliza cualquier dispositivo mecánico ca-
paz de reproducir los movimientos humanos para la
manipulación de objetos.
107
1.8.	 DESVENTAJAS
•	 El robot esta específicamente diseñado para
sustituir la labor humana y de esta manera mejorarla o
simplemente igualar su capacidad. Aunque si es muy
cierto que la robótica puede crear más empleos, tam-
bién puede quitarlos.
•	 Actualmente se puede observar que el des-
empleo por la sustitución humana por los robots ha
sido mayor que el empleo que esta ha creado. Esto se
debe mayormente a que muchas generaciones pasa-
das no pudieron competir ante el potencial del robot,
por esto mimo fueron sustituidos y expulsados de esta
área de trabajo específico.
•	 Estas computadoras pensantes solo se consi-
deran como una base de una especie de robots inteli-
gentes capaces de crear copias de ellos mismo.
•	 El costo de un robot permanece constante
con baja reducción.
•	 Requieren gran capital al instalarle que se de-
precia con los años y el recurso humano que cuesta el
tiempo trabajando.
1.9.	 NOTICIAS EN LAACTUALIDAD
1.9.1.	ASÍ ES JIA JIA, LA PRIMERA ROBOT
HUMANOIDE DE CHINA
En China siguen demostrando su potencial a nivel de
ciencia y tecnología, al estrenar un robot interactivo
con rasgos bastante similares a los de un ser humano
común y corriente, denominado Jia Jia.
Figura 1. Robot Jia Jia.
Fuente: (Anónimo, 2011)
1.9.2.	GEMINOIDS, TU GEMELO ROBOT
El caso más sonado o conocido es el de los “Gemi-
noids”, un trabajo del profesor Hiroshi Ishiguro, di-
rector del departamento de robótica de la Universidad
de Osaka. A muchos os sonarán sus robots nada más
verlos, la mayoría de ellos comparten la misión de
asemejarse lo más posible a los humanos, tanto en
forma como en expresiones, además de jugar con la
interacción con nosotros.
Figura 2. Geminoids.
Fuente: (Anónimo, 2016)
2.	 CONCLUSIONES
Las nuevas tecnologías día a día han venido masifi-
cándose en nuestra sociedad en el ámbito educativo
y laboral, lo cual ha generado un impacto beneficio-
so para facilitar el quehacer cotidiano del ser humano
reflejado en uno de los ejemplos más sencillos como
lo es, el uso del computador. En este sentido, las he-
rramientas tecnológicas permiten al hombre tener una
visión diferente del mundo, ya que logran de una for-
ma innovadora y práctica analizar, diseñar y resolver
problemas presentes en el entorno.
La era de la robótica ha cambiado por completo a la
humanidad, pensar que estamos a unos cuantos pasos
de crear vida inteligente artificial que nos ayude a re-
solver trabajos o tareas de la vida diaria, da un poco
de escalofríos con una mitad de curiosidad, de saber
cómo se comportarán estos nuevos seres en nuestro
planeta o qué pensarán de nosotros, no podemos evitar
esta curiosidad.
En fin, respuesta a la interrogante inicial de: “La ro-
bótica está revolucionando al mundo o la humanidad
está revolucionando al mundo”, con todo lo descrito
anteriormente, podemos decir que la humanidad está
revolucionando al mundo entero con estas nuevas pro-
puestas de automatización, sin embargo, podría atre-
verme a decir que en un futuro tal vez sea de diferente
forma.
108
3.	 REFERENCIAS BIBLIOGRÁFICAS
Anónimo. (10 de Octubre de 2017). El mundo de la
robótica. Recuperado el 2017, de El mundo
de la robótica: http://roboticworld.ucoz.net/
index/robot1/0-8
Anónimo. (10 de Octubre de 2017). EL PAÍS.
Obtenido de EL PAÍS: https://el-
pais.com/elpais/2017/08/24/cien-
cia/1503574908_187790.html
Anónimo. (10 de Octubre de 2017). RPP Noticias.
Obtenido de http://rpp.pe/mundo/china/asi-
es-jia-jia-la-primera-robot-humanoide-de-
china-noticia-1022532
Anónimo. (10 de Octubre de 2017). UM. Obtenido
de http://www.um.es/docencia/barzana/
IATS/Iats09.html
Caliche022. (Octubre de 10 de 2017). Taringa. Ob-
tenido de https://www.taringa.net/posts/
apuntes-y-monografias/10483611/La-Robo-
tica-y-sus-usos.html
Guillén, B. (10 de Octubre de 2017). EL
PAÍS. Obtenido de https://elpais.
com/tecnologia/2016/09/14/actuali-
dad/1473844821_428161.html
Lala. (10 de Octubre de 2017). kouq. Obtenido de
https://kouq.wordpress.com/2011/02/20/
aplicacion/
Martínez, Y. (10 de Octubre de 2017). Tendencias
21. Obtenido de http://www.tendencias21.
net/La-Informatica-Afectiva-promete-ro-
bots-y-ordenadores-cada-vez-mas-huma-
nos_a675.html
puerto, K. (10 de Octubre de 2017). Xataka. Obteni-
do de https://www.xataka.com/robotica-e-ia/
erica-es-el-ultimo-robot-japones-con-aspec-
to-humano-nos-imita-conversando
Puerto, K. (10 de Octubre de 2017). Xataka. Obteni-
do de https://www.xataka.com/robotica-e-ia/
que-robot-te-causa-mas-temor-el-test-del-
valle-inquietante
Robótica. (10 de Octubre de 2017). Blogspot.
Obtenido de http://jodaniel95.blogspot.
com/2011/03/clasificacion-de-la-robotica.
html
Sanchez, O. (10 de Octubre de 2017). Blogspot.
Obtenido de http://computacionrobotica.
blogspot.com
109
LA ROBOTICA UNAALTERNATIVAA LAS LIMITACIONES HUMANAS
Gutierrez Condori Ruben Severo, Jira Ramos Jasmanny, Osco Gutierrez Ronald Charli
rubeninf2017@hotmail.com, jassmono@hotmail.com, rronaldgutierrezz@gmail.com,
Universidad Mayor de San Andres
Carrera de Informática
Gramática Española
RESUMEN
En el artículo se presenta el análisis de la implemen-
tación de la robótica en diferentes ámbitos como ser
para la educación la salud para esto se realiza la cons-
trucción de robots para diferentes ámbitos como men-
cionamos anteriormente y el otro ámbito seria la utili-
zación de la robótica como un medio que motiva y da
un poco más de sentido a la investigación y construc-
ción de robots en diferentes áreas, en el campo de la
medicina podemos mencionar que trata con más deta-
lle la prótesis que usan las personas cuando perdieron
alguna parte de su cuerpo que sea reemplazable, en
todo este tiempo se ha proporcionado al ser humano
extremidades completamente enteras que cada día la
ciencia se va perfeccionando ya que la ciencia nunca
se detendrá y en el área de la educación en el de fo-
mentar a los niños el interés por la ciencia es por eso
que se mostrara los detalles fabulosos que nos da la
ciencia y lo grandioso que puede ser la investigación.
Palabras clave: Construcción, investigación, inte-
ligencia artificial, perfeccionamiento, reemplazable,
robótica.
ABSTRACT
The article presents the analysis of the implementa-
tion of robotics in different areas such as being for
health education for this is done building robots for
different areas as we mentioned above and the other
field would be the use of robotics as a means which
motivates and gives a little more meaning to the re-
search and construction of robots in different areas, in
the field of medicine we can mention that it deals in
more detail the prosthesis that people use when they
lost some part of their body that is replaceable, in all
this time it has been provided to human beings com-
pletely whole limbs that every day science is being
perfectedsince science will
never stop will stop and in the area of ​​education in
that of fostering children’s interest in science is why
it will show the fabulous details that science gives us
and how great research can be.
Keywords: Construction,research,artificial intelli-
gence, refinement,replaceable,robotics.
1. INTRODUCCION
La robótica siempre ha estado a la investigación y a la
mejora de artefactos con la idea de hacer la vida más
fácil de las personas. Además de las aplicaciones que
puede tener en la industria que ha mejorado las activi-
dades como ser los vuelos no tripulados y la creación
de robots que simulan las características de una mas-
cota o de robots que puedan jugar futbol hoy en día
se requiere de movimientos repetitivos y precisos y
también de una mayor fuerza para que la producción
en las empresas sea de optima utilización y de una am-
plia abarcación.
Actualmente la robótica se ocupa del diseño, manu-
factura, educación que combina las disciplinas como
la mecánica, electrónica, información, inteligencia ar-
tificial y la ingeniería de control. En el ámbito de la
medicina se pude mencionar la disminución de costos
x el desplazamiento del médico y la precisión en cuan-
to para la medicina se encuentra los robots diseñados
para la exploración, diagnostico, cirugía y terapia.
Dentro de la inteligencia artificial podemos encontrar
a la robótica que pertenece a una rama de la ciberné-
tica que estudia el mecanismo de la inteligencia arti-
ficial con el fin de poder crear maquinas que puedan
pensar por sí solas y puedan hacer la toma de decisio-
nes. Por otra parte, los robots pueden presentar su lado
negativo como al mal uso de la robótica ya que po-
drían llevar a la humanidad a la guerra mundial como
lo vemos en los videojuegos.
2. DESARROLLO
La robótica educativa se realizó un análisis de la uti-
lización en dos tipos como podrían ser los siguientes:
robótica en educación y robótica para la educación. El
uso que se les da a los robots para el aprendizaje de la
robótica.
110
Figura 1.Robótica educativa.
Fuente:(Barrera, 2015)
2.1. PROTESIS ROBOTICAS
En la actualidad gracias a la robótica existen las
prótesisactivas, las cuales por medio de cuerdas o
más sofisticadamente, sensores ubicados en laguna
parte del cuerpo de la persona permiten mover una
mano mecánica con mayor grado de funcionalidad.
2.2. EVOLUCION DE LA ROBOTICA
La robótica se encargó de analizar punto a punto las
diferentes generaciones de robots a lo largo del tiem-
po, sobre el perfeccionamiento y la construcción de
desarrollo.
2.2.1. PRIMERA GENERACIÓN
Conocidos como manipuladores, son sistemas de con-
trol multifuncionales con un manejo sencillo pudien-
do ser de manejo manual o variable esos sistemas eran
muy simples como ser relojería que permitan mover
cajas musicales y los juguetes de cuerda además de
la aplicación industrial de tomar y colocar pero que
tenían un muy limitado movimiento.
Figura 2. Primeros robots.
Fuente: (Anónimo, 2013)
2.2.2. SEGUNDA GENERACIÓN
En esta generación aparecieron los robots de apren-
dizaje que repiten una secuencia de movimientos el
modo de que el robot llegue a cabo hacer esto es me-
diante un dispositivo mecánico esos robots imitaban y
memorizaban los pasos de la persona.
En esta generación se utilizaron a los robots en la in-
dustria automotriz, soldadura y pintado con spray.
Figura 3.Máquinas industriales.
Fuente: (Anónimo, 2014)
2.2.3. TERCERA GENERACIÓN
En esta generación se implementó el control senso-
rial la cual se podía acceder desde una computadora
la cual ejecutaba las órdenes de un programa que las
envía para hacer la manipulación de movimientos. De
esta manera se utilizó las computadoras para la estra-
tegia de control y algún conocimiento del ambiente lo-
cal. A partir de esta generación se implementó los len-
guajes de programación para escribir los programas
de control a esta estrategia se denominó ciclo cerrado.
Figura 4.Dispositivos externos.
Fuente:(Anónimo., 2012)
111
2.2.4. CUARTA GENERACIÓN
Denominada también la era de los robots inteligentes
similar a tercera generación solo que los robots de esta
generación poseen sensores que envían información a
una computadora de control ya que permite al robot
una toma de inteligentes decisiones con el control de
proceso en un tiempo muy real.
Aparte de que tienen muchas más extensiones senso-
riales para poder comprender mejor sus acciones. Tie-
ne un conocimiento difuso dirigido por expectativas
que mejoran el desempeño del sistema.
2.3.ROBOTICA EN LA EDUCACION
La robótica educativa se ha desarrollado al pasar de
los tiempos gracias a ella se ha podido dar solución
a muchos problemas como en el campo de ciencia y
tecnología, ciencias naturales, física, matemáticas y la
física.
En 1975 apareció el primer sistema automatizado para
un laboratorio de psicología. De este término emer-
gió el tema encargado robot que fue un diseño para
la enseñanza de estudiantes de nivel básico secunda-
rio y universitario y fue creciendo tanto, así como in-
dustrias LEGO diseñaron los primeros kids robóticos
para la enseñanza de jóvenes y niños.
Este fue un incentivo para que los jóvenes de hoy en
día se interesen más en el desarrollo y progreso tecno-
lógico y los amplios temas que puede tener la robótica
por lo cual este es un empujón para que los jóvenes
desde corta edad tengan interés por la ciencia y la in-
geniería desde sus primeras etapas.
La robótica educativa fue definida como una discipli-
na que permite diseñar y desarrollar robots educativos.
Figura 5.Robótica Educativa
Fuente:(Anónimo, 2014)
2.3.1. ROBOTEDUCATIVO AMIBOT
Este sistema es un dispositivo programable con un
conjunto de sensores de entrada y actuadores de salida
que permite tomar señales y el procesar los datos y
ejecutar las tareas, a lo largo del tiempo se ha desa-
rrollado plataformas educativas denominadas también
como AMIBOT. A lo largo del tiempo se realizaron
tres bloques bases:
•	 Los actuadores para realizar los desplazamientos
del robot en un plano
•	 La implementación de los 4 sensores de AMI-
BOT
•	 Procesamiento de interfaz programable llamada
NXT
Figura 6. Robot educativo amibot
Fuente: (Pitti, 2012)
2.3.2. METODOLOGÍA
Este es un trabajo de investigación que esta formulada
por teorías e hipótesis, esta investigación da ideas de
cómo se puede eliminar las dificultades que hay en
las escuelas y de ahí que surge la idea de diseñar au-
las donde específicamente se implemente “los robots
educativos” como instrumentos didácticos que den el
conocimiento y aprendizaje de nuevas ideas y nuevos
campos de visión.
2.4. HISTORIA:ROBOTICA INDUSTRIAL
Para responder a esta cuestionante debemos remontar-
nos hasta Marzo de 1938 en donde Meccano Maga-
zine publicaba su revista con el título “THE ROBOT
GARGANTUA” refiriéndose al invento de BillGri-
ffith P. Taylor. Una “grúa robot” que podía apilar au-
tomáticamente bloques de madera mediante patrones
pre-programados.
112
Este hecho dio suceso a que en 1954 un hombre lla-
mado George Devol solicitara las primeras patentes
de robótica en 1954 para que posteriormente en 1956
junto a Joseph F. Engelberge se fundara la primera
compañía dedicada a la fabricación de este tipo de má-
quinas automatizadas “UNIMATION”. Pero no fue
hasta 1960 que consiguieron un contrato con General
Motors para instalar un brazo robótico denominado
Unimate, en su fábrica de Trenton (Nueva Jersey).
La máquina, con un peso de 1.800 kg, fue considerada
el primer robot industrial de la historia y su función
era la de levantar y apilar grandes piezas de metal ca-
liente.
Figura 7. Robot gargantua.
Fuente: (Anónimo, 2013)
Posteriormente en 1968, Engelberger visitó Japón y
consiguió firmar acuerdos con Kawasaki para la cons-
trucción de robots del tipo Unimate, lo que dio riendas
al crecimiento de la robótica en Japón que tuvo como
consecuencia directa que Japón adelantara a Estados
Unidos gracias a Nissan, que formó la primera aso-
ciación robótica del mundo: la Asociación Robótica
Industrial de Japón (JIRA) en 1972.
El inicio de estos primeros robots que se dedicaban
únicamente de transportar objetos de un lugar a otro
fueron perfeccionándose cada vez más hasta llegar a
un punto en el que hoy en día son indispensables para
la industria.
Específicamente en el ramo industrial, la robótica
puede aplicarse en: trabajos en fundición, soldadura,
aplicación de materiales, sellantes y adhesivos,
alimentación de máquinas, procesado, corte, montaje,
palatización y control de calidad, entre otros tantos.
Su éxito en esos trabajos se debe principalmente a una
serie de ventajas que la hacen la opción perfecta en la
industria:
2.4.1. PRODUCTIVIDAD
En nuestros días lanecesidad y demanda de productos
es bastante grande, por lo que una empresa la cual no
cuente conrobots que haganmás sencillos y rápidos los
procesos industriales, tendría serios problemas para
satisfacer la gran demanda de insumos en el mercado.
Figura 8. Robot Unimate
Fuente: (Greel, 2015)
2.4.2. Velocidad
La robótica brinda la capacidad de reducir de forma
importante el tiempo requerido para llevar a cabo
una tarea específica, por lo se minimizan también los
gastos propios de la producción.
2.4.3. Seguridad
Cuando ciertas  tareas presentan algún grado de
riesgo, por ejemplo, en el caso de las empresas
siderúrgicas donde  se trabaja con metales fundidos
a altísimas temperaturas, se utilizan robots que sean
capaces de llevar a cabo las funciones que una persona
no puede realizar por su propia seguridad.
Los robots industriales son llamados también brazos
de robot gracias al increíble parecido que tienen con
lasextremidades superiores del cuerpo humano, tanto
en diseño como en funcionalidad.
113
En la maquinaria robótica, el brazo y antebrazo son
conocidos comoenlaces o eslabones, los cuales son
unidos mediante las juntas o articulaciones, de modo
que el sistema pueda realizar movimientos deslizantes
de forma lineal o rotacional.
Para que el robot pueda llevar a cabo la función para
la que está diseñado, debe contar en el extremo con
una herramienta o pinza, de modo que pueda sujetar,
soldar, pintar, y cualquier otra tarea que la pieza
requiera.
Figura 9. Partes de un brazo robótico.
Fuente:(Anónimo., 2014)
2.4.4. Más allá de la producción en serie
Sectores como el del automóvil o el de la manufactura
han sido desde hace más de 30 años habituales
usuarios de la robótica industrial. Esto gracias a la
buena adaptación que ha tenido el robot industrial en
las tareas repetitivas dentro de entornos estructurados.
Sin embargo, hay otros sectores en donde no es
necesario obtener un nivel alto de productividad,
en donde las tareas no son repetitivas, y donde no
existe un conocimiento a detalle del entorno. Entre
dichos sectores se pueden mencionar laindustria
nuclear y la construcción.
3.	 CONCLUSIONES
La robótica supone avances muy importantes para
conseguir un mejor avance en la ciencia como ser en
el campo de la medicina, la educación y las industrias
gracias a la robótica las intervenciones en el campo
de la medicina serán más perfectas en el campo del
estudio tendremos robots que incluso tengan la capa-
cidad de enseñar como también el de aprender y en
el campo industrial en el cual ya no dependerán de
usuarios que todo los procesos se harán más eficaces
y sin ningún reclamo en conclusión estas operaciones
nos darán mayor beneficio aunque el desarrollo de la
robótica dejara a muchas personas sin trabajo ya que
las empresas optaran por la automatización.
4.	 REFERENCIAS BIBLIOGRÁFICAS
Anonimo. (s.f.). Wikipedia. Obtenido de http//es.wiki-
pedia.org/wiki/Robótica
Boden,M.(1995).AI’sHalf‐Century.American. Asso-
ciation for Artificial Intelligence, AI Maga-
zine, Winter, vol.16,N° 4, p. 96/9.
Bogner, M.; Maletic, J. y Franklin, S. (2000):
ConAg:AReusable Framework for Develop-
ing“Conscious” SoftwareAgents.
Brooks,R.(1998). ProspectsforHumanIntelligencefor,
Humanoid, Robots.MIT, Laboratorio deInte-
ligenciaArtificial.
Bermúdez G. y Pinto M. (2007). Determinación
de parámetros de un robot móvil de Lego
Mindstorms. Ingeniería, Investigación y De-
sarrollo I2+D. Vol. 4, pp. 7-13.
Dario, P.(2005). Robot, ovverotraillusionierealtà. Re-
vista Media Duemila, Número EspecialRo-
bótica, Julio/Agosto, p. 22/5.
FernándezLeón,J.(2004). RobóticaEvolutivaylapróxi-
mageneraciónderobotsautónomos.WCA-
FR2004 (Workshop del II Campeonato Ar-
gentino deFútboldeRobots), 9‐11 dejunio.
Florian,R.(2003). Autonomous,artificialintelligenta-
gents. TechnicalReportConeural, 4 de febre-
ro, edición digital.
Kovács,A.yUeno,H.(2005). CognitiveSubstrates:
What They Are and What They Learn.
Página personal del autor. 4 de marzo.
Mataric,M.(2002):SituatedRobotics. Encyclopedia of
Cognitive Science, Nature Publishers Group,
Macmillian Reference Ltd.
Velásquez-navarro,j.j. (2008). Ambientes lúdicos de
aprendizaje diseño y operación. México:
Editorial Trillas
Taylor, G. P. (19 de 03 de 2017). Cybemeticzoo.
Obtenido de http://cyberneticzoo.com/
robots/1937-the-robot-gargantua-bill-griffi-
th-p-taylor-australiancanadian/
114
MECÁNICA COMPUTACIONAL EN LA MEDICINA VETERINARIA
Pomacosi Quispe Richard, Rojas Medina Eddy Dorian, Huaranca Antiñapa Juan Carlos
youtuberick@outlook.com, eddydorian@gmail.com, jkarlos@gmail.com
Universidad Mayor de San Andrés
Carrera de Informática
Gramática Española
RESUMEN
La mecánica computacional intenta de predecir la
mecánica de los seres vivos, por lo tanto nos ayuda
a entender el motor de los organismos, caracterizar el
comportamiento de los tejidos y órganos y prevenir
de esta manera métodos para la intervención artificial,
por medio de la simulación computacional que mo-
dela los procesos de respuesta de las células tejidos y
órganos ante estímulos externos e internos, mediante
un modelo matemático del comportamiento que se
basa en reglas o patrones que se siguen, muchas veces
basadas en la metodología de prueba y error. En el
presente trabajo se lleva a cabo una revisión biblio-
gráfica sobre esta nueva área de conocimiento en la
teoría biológica y computacional, para la predicción
del comportamiento de los tejidos vivos.
Palabras claves: biomecánica, medicina veterinaria,
computacional.
ABSTRACT
Computational mechanics tries to predict the me-
chanics of living beings, therefore, it helps us to un-
derstand the motor of the entities, to characterize the
behavior of the tissues and organs and thus to prevent
methods for artificial intervention, through the com-
putational simulation that models the response pro-
cesses of tissues and organs to external and internal
stimuli, through a mathematical model of behavior
that is based on rules or patterns that are followed,
often based on the methodology of trial and error. In
the present work, a bibliographic review was carried
out on this new area of ​​knowledge in the biological
and computational theory, for the prediction of the be-
havior of living tissues
Keywords: biomechanics, veterinary medicine, com-
putational.
1. INTRODUCCION
La dinámica de la fisiología animal está descrita como
un conjunto de mecanismos que interactúan a través
de una acción coordinada de cada sistema, órganos
y tejidos. Actualmente existen muchos modelos que
describen la dinámica del movimiento de diferentes
órganos mediante algoritmos computacionales, este
estudio se basa en patrones que se identifican luego
de un análisis estadístico sobre grupos poblacionales
grandes, aunque los resultados son difícilmente gene-
ralizables debido a la variación de estos patrones entre
poblaciones, por lo cual es difícil saber si se trata de
una fisiología normal o patológica. La biomecánica
computacional se refiere a la simulación de estos sis-
temas complejos, mediante la utilización de modelos
sólidos para simular comportamientos cinemáticos,
como modelos de elementos finitos para simular pro-
piedades de deformación y resistencia de los tejidos y
elementos biológicos.
El uso continuo de la simulación en medicina ha per-
mitido obtener datos importantes acerca del compor-
tamiento biológico, mecánico y químico de órganos
y tejidos utilizando la formalización matemática y la
consiguiente simulación numérica de procesos bioló-
gicos complejos. Distintos problemas de medicina re-
lacionados con la cirugía, el trauma y la rehabilitación
han sido identificados, conceptualizados y sistemática-
mente resueltos numéricamente.
2. DESARROLLO
2.1. COMPORTAMIENTO MECÁNICO DE
LOS TEJIDOS
En este sector se realizó la revisión de distintas biblio-
grafías relevantes acerca de los tejidos vivos, que es la
estructura simple que conforman órganos, los cuales
se distinguen en tejidos duros y blandos.
2.1.2 TEJIDOS DUROS
Son parte de la conformación ósea de los animales,
las cuales poseen propiedades mecánicas. Estas es-
tructuras a pesar de ser ligeros presentan una gran re-
sistencia a la tracción, por ejemplo, los tobillos de un
caballo pueden soportar alrededor de 120 kilogramos.
El tejido óseo está conformado por componentes in-
orgánicos como fosfato y carbonato de calcio, que le
115
confieren su gran resistencia a compresión, también
posee componentes orgánicos como colágeno y pro-
teínas no colágenas, que constituyen sus propiedades
de tracción (Doblare, 2004). Es importante destacar
que la estructura de los huesos no es uniforme, siendo
un material heterogéneo, poroso y anisótropo, es de-
cir tiene distintas propiedades cuando este se examina
figura 1. La porosidad ósea tiene también un compor-
tamiento mecánico, aunque es muy variable, es decir
hay probabilidades de encontrar porosidades muy al-
tas o bajas. Actualmente se han desarrollado muchos
trabajos que intentan relacionar la mecánica del tejido
óseo, la elasticidad y resistencia a la compresión, en
otras ocasiones la densidad aparente o la densidad
asociado al porcentaje de minerales.
Figura 1. Estructura ósea cortical y esponjosa.
Fuente: (Doblaré 2004)
2.1.3 TEJIDOS BLANDOS
De manera general los tejidos blandos comprenden,
un conjunto de elementos orgánicos formados por
tejido conjuntivo. Los tendones, vasos sanguíneos,
músculos, tejidos grasos y ligamentos pertenecen a
este tipo. Generalmente se encuentran reforzados por
fibras de colágeno y elastina.
La composición de estos depende de su fisiología
puesto que las células de un tipo semejante de agru-
pan de distinta manera, por ejemplo, los tendones es-
tán especializados en la resistencia de tracción puesto
que son ricos en fibra y su función está ligada a la
dirección del esfuerzo al que se someten, hay otras
estructuras como los cartílagos que absorben elásti-
camente las fibras de compresión estas son ricas en
proteoglicanos. (Doblare, 2004). Entre otras caracte-
rísticas estructurales de los tejidos blandos es su dis-
tribución por estratos, existen así los tejidos simples,
estratificados y pseudoestratificados. Algunas estruc-
turas son difícilmente estudiadas desde el punto de la
mecánica, puesto que se someten a grandes deforma-
ciones como los tendones, por lo cual son práctica-
mente incomprensibles debidos a que tiene un amplio
rango de deformación.
Por otro lado, los cartílagos articulares por ejemplo
tienen un comportamiento comprensible, el estudio
del comportamiento de este tipo de tejidos permite
proporcionar a las articulaciones sinoviales condicio-
nes óptimas de lubricación, fricción y desgaste. A la
hora de realizar estudios del comportamiento tisular
en animales, uno de los mayores problemas que se
presentan a la hora de modelar tejidos blandos y su
estudio biomecánico es la determinación del estado
inicial, debido al estrés del mismo provocado por la
manipulación constante, por tal motivo ya existe una
pretensión debido a la manipulación del animal reali-
zado durante el estudio (Alvarado, sf).
2.2. BIOMECÁNICA CELULAR
“La biomecánica celular desarrolla nuevas hipótesis y
teorías sobre el efecto tienen sobre el comportamien-
to celular. En especial estudia la diferenciación y ex-
presión genética, es decir, se estudia la célula a nivel
intracelular” (Landinez, 2011). Por ejemplo, Bertaud
(2010) ha desarrollado un trabajo sobre el rol de los
filamentos en la mecánica de la deformación celular.
En los resultados obtenidos hallaron que la deficien-
cia en los filamentos de las células puede alterar el
comportamiento mecánico de la célula, por lo que se
obtiene una respuesta de mayor alcance ante cargas
mecánicas. Estos resultados fueron comparados con
estudios experimentales en donde se halló una exce-
lente correlación con la simulación.
Esta disciplina estudia la biomecánica de células, su
cómo interactúan entre sí, su movimiento, también a
células individuales la forma extracelular en la que se
desenvuelven. Es fundamental en procesos a celulares
como la migración celular, proliferación y muerte ce-
lular y también en procesos biológicos como curación
de tejidos, tales como la cicatrización de heridas y
otros como la adaptación entres distintos tipos de teji-
dos. Gracias a que existen nuevas técnicas hoy en día
se pueden hallar una mayor cantidad de datos del inte-
rior de una célula se puede definir su comportamiento,
funcionamiento y muerte de la célula, con estos datos
se han llevado a cabo una mayor cantidad de simula-
ciones que muestran la evolución y comportamiento
de las células ante la interacción con agentes externos.
Otro tipo de simulaciones, de gran interés científico se
ha enfocado en la morfogénesis celular. En este sen-
tido, Shinbrot (2009) desarrolló modelos de las célu-
las con geometría esférica, las cuales pueden migrar
e interactuar mediante fuerzas eléctricas para atraer y
repelerse entre sí. En este artículo se reporta la morfo-
logía y los patrones desarrollados, por lo que se crea
116
un autoensamble para formar estructuras únicas de
aglomerados celulares. En la figura 2 se pueden ob-
servar algunas de las simulaciones llevadas a cabo por
el grupo de Shinbrot.
Figura 2. Comparación entre simulaciones in vitro y
por computador
Fuente: (Shinbrot et al, 2009)
2.3. SIMULACIÓN BIOMECÁNICA
Un ejemplo de simulación computacional correspon-
de a Garcia (2000) al analizar el tipo de tratamiento
más adecuado para diferentes tipos de lesiones pélvi-
cas. Como objetivo principal era estudiar la movilidad
global de la fractura, el tejido fue considerado como
elástico lineal, distinguiendo entre hueso cortical y es-
ponjoso y utilizando módulos elásticos. A pesar de es-
tas simplificaciones se obtuvieron resultados de gran
concordancia con la experiencia clínica.
Otro ejemplo es el de análisis comparativo entre dife-
rentes tipos de fijaciones para el tratamiento de fractu-
ras de la extremidad proximal del fémur. El fémur se
simulo también como un material elástico lineal ho-
mogéneo e isótropo distinguiendo entre hueso cortical
y esponjoso figura 3. Se concluyó que las fijaciones
intramedulares hacen una mejor estabilización d la
zona con fractura.
Figura 3. Fijaciones externas en el fémur proximal
Fuente: (Doblaré, 2004)
En un estudio realizado por Sánchez (2016), para des-
cribir y caracterizar las propiedades biomecánicas del
hueso de una oveja, que fueron sometidos a ensayos
mecánicos clásicos de compresión y flexión, obte-
niendo como resultado la mecánica que existe entre
huesos de distintas edades, sexo y raza, por ello no
se puede asignar un modelo de caracterización para
cualquier muestra.
2.4. BIOMECÁNICA COMPUTACIONAL
La mecanobiología computacional, determina las re-
glas cuantitativas que gobiernan las acciones celulares
para su expresión, diferenciación y mantenimiento
ante estímulos biológicos y mecánicos, las cuales pue-
den simularse mediante métodos numéricos. El pro-
cedimiento para hallar dichas reglas es habitualmente
mediante el proceso de prueba y error.
Los ensayos computacionales se simulan a partir de
problemas de valor en el contorno mediante los cua-
les, las cargas mecánicas sobre el contorno son trasla-
dadas a variables mecánicas locales (deformaciones y
tensiones). Del lado biológico, estas variables mecáni-
cas locales o biofísicas estimulan la expresión celular
para regular, por ejemplo, la composición de la ma-
triz y la expresión de sustancias moleculares. Tanto la
parte biológica como la mecánica se combinan en un
modelo computacional, que considera la aplicación de
fuerzas, mecanotransducción, expresión celular, gené-
tica y la transformación de las características de la ma-
triz extracelular. El método usual de implementación
numérica de estos problemas mecanobiológicos es el
método de los elementos finitos (Alvarado, sf).
“La biomecánica computacional ha servido en múlti-
ples áreas de la medicina aplicando la mecánica como
herramienta de análisis. Sin embargo, la mayor apli-
cación de esta área ha sido solucionar problemas orto-
pédicos y entender el sistema musculo esquelético. Es
así que la biomecánica se ha dividido específicamen-
te en simulación de musculo, tendones y ligamentos
(también denominados tejidos blandos) y simulación
de hueso (tejido duro)” (Alvarado, 2009).
Conforme pasaron los años se desarrollaron nuevas
simulaciones computacionales más complejas que in-
volucraban mayor cantidad de variables y mayor pre-
cisión, como por ejemplo Johnson ( 2004) desarrolló
algoritmos numéricos para predecir el comportamien-
to de cada organelo celular.
La biomecánica computacional con el apoyo de las
herramientas de la mecánica clásica como la mecá-
nica de fluidos, la mecánica de sólidos y análisis de
movimiento han sido utilizados para entender el com-
portamiento de diferentes tejidos y órganos, es así
como la biomecánica computacional ha sido de ayuda
117
para el avance de la medicina veterinaria simulando el
comportamiento de los tejidos para diagnosticar pro-
blemas patológicos.
2.4.1. REMODELACIÓN ÓSEA
Hay dos células que son los principales responsables
de la remodelación ósea estos son: Los osteoblastos
son células que producen tejido óseo. Los osteoclastos
son los que eliminan los tejidos óseos desmineralizán-
dolos y disolviendo el colágeno. Doblaré (2004) afir-
ma “La remodelación ósea se produce por paquetes de
células denominadas unidades básicas multicelulares
Estos paquetes son los que sustituyen el hueso vie-
jo por el nuevo siguiendo un patrón conocido como:
Activación-Reabsorción-Formulación”. Las aplica-
ciones del modelo de remodelación son consideradas
que las simulaciones idénticas a las originales, para
obtener un resultado completamente convergente sin
oscilaciones incluso a largo plazo. Un mejor entendi-
miento de este proceso de remodelación permite es-
trategias más exactas y fiables para el diagnóstico y
tratamiento.
2.4.2. REMODELACIÓN ÓSEA BASADA EN
LA TEORÍA DE LA MECÁNICA DEL DAÑO
CONTINUO
La biomecánica computacional ha servido en múlti-
ples áreas de la medicina aplicando la mecánica como
herramienta de análisis. Sin embargo, la mayor apli-
cación de esta área ha sido en solucionar problemas
ortopédicos y entender el sistema músculo esquelético
(Alvarado, sf).
“Se podrían utilizar los conceptos de la Mecánica del
Daño Anisótropo como marco general para la formu-
lación del problema de la remodelación ósea”. (Do-
blaré, 2000). Para ello, desde un punto de vista pura-
mente matemático se consideran a los poros del tejido
óseo como una variable similar al daño de forma que
esta puede aumentar formación ósea o disminuir, ge-
nerando así la mecánica del daño continuo incluyendo
la posibilidad de la disminución del daño. Para la evo-
lución del tensor se debe seguir un procedimiento es-
tándar llamado teoría del daño continuo que consiste
en definición del estímulo mecánico como la variable
termodinámica asociada al tensor de remodelación;
planteamiento de los criterios que controlan los pro-
cesos de formación ósea y reabsorción en función del
estímulo mecánico y establecimiento de una regla de
flujo asociativo (Doblare, 2004).Con este modelo se
verifican muchas propiedades del comportamiento del
tejido óseo como la alineación de las microestructuras
con las principales direcciones del tensor de compor-
tamiento y del tensor de tensiones. Para poder prede-
cir la evolución de la distribución de densidades y sus
propiedades direccionales se usaron varios ejemplos,
el más utilizado es el estudio en 2D del fémur para
simular el movimiento de caminar. Esta simulación se
inicia con una distribución homogénea de densidades,
observando así el cambio que sufre a lo largo del tiem-
po figura 4, posteriormente se observa la distribución
de densidades que se obtiene después de 300 análisis
incrementados. Con esto se puede observar que des-
pués de los incrementos este es muy similar al fémur
inicial.
Figura 4. Distribución de densidades
Fuente: (Rueberg et al,s.f.)
Este modelo de remodelación también nos permite
analizar las alteraciones que sufre el tejido óseo como
consecuencia de la transición de cargas que se produ-
cen al implantarse una prótesis.
2.4.3. MECANOBIOLOGÍA DE TEJIDOS Y
ÓRGANOS
En la mecanobiología de tejidos y órganos se han he-
cho numerosos aportes sobre el papel que cumple la
mecánica y la biología en la morfogénesis, desarrollo
y mantenimiento. El proceso mediante el cual se adi-
ciona masa se la conoce como crecimiento biológico,
durante el transcurso de este proceso se configura la
forma y se configuran las dimensiones finales de los
órganos y tejidos que están en etapa de desarrollo (La-
dinez, 2011).
Durante el crecimiento de animal hay dos tipos de
tejidos: el tejido duro que se desarrolla mediante la
posición de masa sobre la superficie del tejido, o me-
diante la formación de un molde de cartílago y poste-
riormente remplazo por tejido óseo, esto ocurre en los
huesos largos.
El comportamiento de los tejidos blandos depende su
composición estructural, especialmente del porcenta-
je de fibras, sus características y tipo de agrupamien-
to. Así, los tejidos especializados en la resistencia a
118
fuerzas externas, son ricos en fibras y su orientación
coincide esencialmente con la dirección del esfuerzo
al que están sometidos, mientras que los que absor-
ben elásticamente las fuerzas de compresión son ri-
cos en proteoglicanos y con las fibras distribuidas en
varias direcciones. Ladinez (2011) cita a Kuhl (2003)
quienes presentaron un modelo teórico y numérico
del crecimiento a partir de un sistema termodinámi-
co abierto que tiene aplicación a tejidos duros y para
la recuperación de heridas. A partir de las evidencias
experimentales, se crearon modelos donde las cargas
mecánicas influyen en la formación de tejidos pero
que no incluían ecuaciones de reacción-difusión de
sustancias químicas. Uno de los temas más importante
en la mecanobiología es la mecanotransducción; esta
área intenta predecir la deformación y la diferencia-
ción de las células en términos cuantitativos, a partir
de estímulos biofísicos y mecánicos figura 5.
El tejido duro puede desarrollarse mediante la aposi-
ción de masa sobre la superficie del tejido (desarrollo
intramembranoso), o mediante el proceso de forma-
ción de un molde de cartílago y posteriormente el re-
emplazo de tejido óseo, como ocurre en el caso de los
huesos largos (como el desarrollo de femúr y tibia).
“Por el contrario, los tejidos blandos, como los vasos
sanguíneos o ligamentos, experimentan un crecimien-
to volumétrico que genera tensiones residuales inter-
nas sobre los órganos” (Garzon, 2009).
Figura 5. Simulación de flujo y deformación de la
pared arterial.
Fuente: (Garzón, 2009)
2.4.4. MECANOBIOLOGÍA DE PATOLOGÍAS
Usando la metodología macanobiológica, se simula-
ron patologías, reparación y recuperación de tejidos y
órganos. Por ejemplo, en una fractura ósea donde se
consideran los estados de crecimiento, diferenciación
y regeneración regulados por factores mecánicos. Do-
blaré (2014) desarrolló modelos matemáticos y simu-
laciones computacionales que determinan los eventos
que ocurren durante el proceso de cicatrización de una
fractura. Mientras que Isaksson (2006) proponen un
modelo geométrico donde se tiene en cuenta la regula-
ción mecánica durante una fractura y la cicatrización
ósea sin la utilización de agentes externos.
En odontología, la mecanobiología ha desarrollado
modelos exitosos en el desarrollo de lesiones en la
recuperación y cicatrización alrededor de implantes
dentales y en el manejo de patologías poco comunes.
Por ejemplo, Vanegas (2011) ha desarrollado un mo-
delo de integración ósea en la dentadura alrededor de
un implante. En dicho artículo se establecen las prin-
cipales mecanismos moleculares y celulares que inter-
vienen en el proceso de cicatrización de heridas, como
la coagulación sanguínea, migración celular para la
regeneración y conformación del nuevo tejido funcio-
nal que se desarrollará alrededor del implante.
En otras investigaciones como el de Cardenas (2010),
reporta que en período de recuperacion y cicatrizacion
de la ruptura de ligamentosy tendones, este no alcanza
las propiedades mecánicas favorables ni las cualida-
des del ligamento normal, convirtiendolo en un tejido
susceptible a esguinses que pueden tener un periodo
de duracion bastante largo. Este fenomeno lo asocia a
la baja produccion de colageno y la nueva orientacion
aleatoria de las fibras lo que ocasiona una distribucion
aonormal de las cargas. Por ello para entender cómo
el tejido en reparacion responde a estímulos mecáni-
cos, se recurre a la mecanobiología computacional,
que describe los procesos de mecanotrasduccion en el
tejido.
2.3.5. NUEVAS TENDENCIAS DE LA MECÁ-
NICA COMPUTACIONAL
Los procesos biológicos presentan una gran variabili-
dad estadística, por lo que los modelos mecanobioló-
gicos pueden ser, simplemente, estimaciones gruesas
de fenómenos que involucran procesos multiples. Este
acoplamiento de fenómenos trae consigo el manejo
de diferentes escalas de tiempo y espacio, lo cual ha
desarrollado nuevas ramas que utilizan modelos que
tal vez, especulando, puede ser el siguiente paso en
la comprensión de la física, biología y los materiales.
Adicionalmente, en los nuevos modelos computacio-
nales se deben incluir efectos eléctricos, que en con-
junto con la mecánica pueden dar cuenta del compor-
tamiento de células y tejidos.
La simulación computacional se realiza a partir pro-
blemas habituales de una revisión clínica en el cual el
comportamiento mecánico se traslada a variables me-
cánicas locales (deformaciones y tensiones). Del lado
biológico, estas variables mecánicas locales estimu-
lan la expresión celular para regular, por ejemplo, la
119
composición de la matriz y la expresión de sustancias
moleculares.
3. CONCLUSIONES
El constante interés de la mecánica biológica cada día
va atrayendo a nuevas áreas relacionadas a la mecá-
nica computacional, computacional, con el objetivo
principal del análisis del comportamiento mecánico
de los tejidos vivos.
En el presente trabajo se ha descrito algunos de los
avances en la simulación biomecánica, con la finali-
dad de realizar predicciones computacionales, incluso
en casos complejos como fenómenos mecanobiológi-
cos, que llegan a ser importantes y de gran interés clí-
nico y de esta manera ser utilizable más intensamente.
Es probable que, en un futuro próximo, el desarrollo
de modelos más precisos, realistas y complejos per-
mitan reducir de forma drástica la experimentación en
animales lo que sin duda implicara importantes aho-
rros económicos y sociales. Además de posibilitar el
desarrollo de investigaciones de varias disciplinas en
el campo de la medicina regenerativa.
La lista de artículos y trabajos acerca de la mecánica
computacional es extensa y no cabría en este trabajo
una descripción completa de todas y cada una de las
áreas en las que ha abarcado, se hizo una breve revi-
sión del estado de la mecánica computacional, se citan
fuentes y se describen los modelos más importantes y
relevantes. Sin embargo, se ha hecho una revisión de
los trabajos actuales y las tendencias en el desarrollo
de modelos computacionales que permiten construir
hipótesis, teorías y probar modelos que pueden ser
complejos de llevar al laboratorio.
4. REFERENCIAS BIBLIOGRÁFICAS
Alvarado, D. (sf). Sobre la aparicion de la biomecá-
nica y la mecanobiologia computacional: ex-
perimentos computacionales y recientes ha-
llazgos. Revista cubana de investigaciones
biomédicas.
Bertaud, J., Qin, Z., & Buehler, M. (2010). Interme-
diate filamen-deficient cell are mechanically
softer at large deformation: A multi-Svale
simulation study. Biomaterialia, 57-66.
Cardenas, R. P., Garzon, D. A., & Peinado, L. (2010).
Mecanobiología de reparacion del ligamen-
to.
Doblare, M.(2004). Desde la Biomécanica Computa-
cional a La Simulacion en Mecanobiología.
Garcia, M., Doblaré, M., Seral, F., Palanca, D., & Gra-
cia, L. (2000). Three-Dimensional Finite El-
ement Analysis of. Journal of Biomechanical
Engineering, 516-522.
Garzon, D.A., Duque, C.A., & Ramirez,A. M. (2009).
Sobre la aparicion de la biomecánica compu-
tacional: experimentos computacionales y
recientes hallazgos. Revista Cubana de In-
vestigaciones Biomédicas, 3(28), 83-101.
Ibañez, A., Ramirez, C., Baar, A., Martinez, G., Thi-
baut, M., & Ramos, J. (2008). Estudio Bio-
mecánico de resistencia en femur y predic-
tibilidad de zona de fractura. Rev. Chilena
Ortop t Traum, 64-70.
Isaksson, H., Donkelaar, C. C., Huiskes, R., & Ito, K.
(2006). Compation of biophysical stimull for
mechano-regulation ot tissue differentiation
during fracture healing. Journal of Biome-
chanics, 8, 7-16.
johnson, c. G., Goldman, J., & Gullick, W. J. (2004).
Simulating complex intracellular processes
using object- oriented computational mod-
elling. progress in Biophysics and molecular
Biology, 379-406.
Ladinez, P. N., Garzon, D., & Navarrez, A. (2011).
Una introduccion a la mecanobiología ani-
mal. Revista Cubana de Investigaciones Bio-
médicas, 368-389.
Rueberg, T., Garcia, J. M., & Doblaré, M. (s.f.). A
mechanobiological bone remodelling model
based on 3D BUM-activity. Journal of Bio-
mechanics.
Sanchez, D. (2016). Caracterizacion Biomedica del
Hueso de Oveja. Tesis de Grado, Barcelona.
Shinbrot, T., Chun, Y., Carvajaal, C., & Foty, R.
(2009). Cellular Morphogenesis In Silico.
Biophysical Journal, 82-94.
Vanegas, J. C., & Casale, M. C. (2011). A finite ele-
ment method approach for the mechanobio-
logical modeling of the osseointegration of a
dental implant. Computer Methods and Pro-
grams in Biomedicine , 297-314.
120
RESUMEN
La conexión remota a la red corporativa se ha
convertido en una necesidad para las empresas
de hoy en día. El aumento del teletrabajo o los
desplazamientos de personal, obligan a establecer
sistemas de conexión con la red corporativa para, de
esa manera, poder acceder a sus recursos. Uno de los
sistemas más extendidos para comunicarse de forma
remota con una red es a través de conexiones VPN.
Sin embargo, una conexión VPN es también un punto
crítico de entrada de todo tipo de ataque. A través
de una VPN cualquier tipo de ataque puede entrar
directamente en los servidores de la empresa. El
problema se trata en verificar la seguridad del equipo
que se está conectando de forma remota y las políticas
de seguridad adecuadas para que la información
no quede expuesta a posibles ataques y para esto
la implementación de métodos de encriptación es
esencial.
Palabras clave: VPN, red, virtual, protocolo,
algoritmo, encriptación.
ABSTRACT
The remote connection to the corporate network
has become a necessity for today’s companies.
The increase of teleworking or the displacement of
personnel, force to establish connection systems with
the corporate network to, in this way, be able to access
their resources. One of the most widespread systems
for communicating remotely with a network is through
VPN connections. However, a VPN connection is also
a critical point of entry for all types of attacks. Through
a VPN any type of attack can directly enter the servers
of the company. The problem is to verify the security
of the equipment that is connecting remotely and the
appropriate security policies so that the information
is not exposed to possible attacks and for this the
implementation of encryption methods is essential.
Keywords: VPN, network, virtual,
protocol, algorithm, encryption.
1.	INTRODUCCIÓN
La época en que vivimos se caracteriza por la creación
y la implementación de toda clase de tecnologías de
la información. Las necesidades de las empresas y
organizaciones motivaron la creación de redes LAN,
WAN, intranets y extranets y, por supuesto, Internet.
Las corporaciones conectan su oficina central con sus
sucursales utilizando diversos tipos de conexiones
WAN. También instalan infraestructura para poder
permitir el acceso a usuarios remotos. Ahora bien,
el problema es que establecer y mantener una red
privada de esa manera resulta la mayor parte de las
veces algo muy costoso.
Si crear una red privada resulta ser muy caro, entonces
podría pensarse que, puesto que las redes públicas
resultan ser más económicas sería buena idea montar
la red privada de una compañía en una red pública.
2. DESARROLLO
Conelusodeprotocolosdeencriptación,lainformación
que atraviesa Internet lo hace de forma cifrada, de
modo que sólo el destinatario seleccionado será capaz
de leer la misma. Incluso en el caso de escuchas no
permitidas, no será posible la recuperación de la
información original de forma legible sin conocer las
claves que sólo los interlocutores legítimos poseen.
2.1. VPN (RED PRIVADA VIRTUAL)
Una Red Privada Virtual (VPN) es una red
de información privada que hace uso de una
infraestructura pública de telecomunicaciones, que
conecta diferentes segmentos de red o usuarios a una
red principal, manteniendo la privacidad a través del
uso de un protocolo de túnel o aislamiento, así como de
otras tecnologías que proveen seguridad. La función
MÉTODOS DE ENCRIPTACIÓN PARA REDES PRIVADAS VIRTUALES
Casas Ninachoque José Eduardo, Laura Mamani Juan Guillermo, Ramirez Castro Sergio Daniel
Jecn7398casas@gmail.com, Guillermoflores979@hotmail.com, sergiodrcn@gmail.com
Universidad Mayor de San Andrés
Carrera de Informática
Gramática Español
121
principal de una VPN es la de brindar conectividad
a una red, a través de una red pública, brindando la
integridad de la información.
Para la implementación de una VPN, existen aspectos
fundamentales que deben considerarse: costo,
desempeño, confianza y seguridad.
De estas características, la seguridad es la más
primordial, sin la existencia de esta característica
las otras resultan ser improductivos; puesto que no
importa qué tan barata, rápida y confiable sea una
red, sin la seguridad adecuada, los riesgos causaran la
inestabilidad de la red
2.2. VENTAJAS Y DESVENTAJAS
VENTAJAS:
• Ahorro en costos.
•Nosecomprometelaseguridaddelared empresarial.
• El cliente remoto adquiere la condición de miembro
de la LAN con permisos, directivas de seguridad.
• El cliente tiene acceso a todos los recursos ofrecidos
en la LAN como impresoras, correo electrónico, base
de datos.
• Acceso desde cualquier punto del mundo, siempre y
cuando se tenga acceso a internet.
(Caire, 2006)
DESVENTAJAS:
• No se garantiza disponibilidad de la conectividad
Internet.
• No se garantiza el caudal.
• Gestión de claves de acceso y autenticación delicada
y laboriosa.
• La fiabilidad es menor que en una línea dedicada.
• Una VPN se considera segura, pero al viajar por
Internet no seguro y expuestos a ataques.
(Caire, 2006)
2.3. FUNCIONAMIENTO DE UN VPN
Una red privada virtual se basa en el protocolo del
túnel, es decir, un protocolo que cifra los datos que
se transmiten desde un lado de la VPN hacia el otro.
Figura 1. Funcionamiento del VPN
Fuente: (Caire, 2016)
La palabra “túnel” se usa para simbolizar el hecho que
los datos estén cifrados desde el momento que entran
a la VPN hasta que salen de ella y, por lo tanto, son
incomprensibles para cualquiera que no se encuentre
en uno de los extremos de la VPN, como si los datos
viajaran a través de un túnel.
En una VPN de dos equipos, el cliente de VPN es la
parte que cifra y descifra los datos del lado del usuario
y el servidor VPN (comúnmente llamado servidor
de acceso remoto) es el elemento que descifra los
datos del lado de la organización. De esta manera,
cuando un usuario necesita acceder a la red privada
virtual, su solicitud se transmite sin cifrar al sistema
de pasarela, que se conecta con la red remota mediante
la infraestructura de red pública como intermediaria;
luego transmite la solicitud de manera cifrada. El
equipo remoto le proporciona los datos al servidor
VPN en su red y éste envía la respuesta cifrada.
Cuando el cliente de VPN del usuario recibe los datos,
los descifra y finalmente los envía al usuario.
2.4. TUNEL
Es una técnica de que usa una infraestructura entre
redes para transferir datos de una red a otra. Los datos
o la carga pueden ser transferidos como tramas de
otro protocolo. El protocolo de tuneling encapsula las
tramas con una cabecera adicional, en vez de enviarla
como se produjo en el nodo original. La cabecera
adicional proporciona información al routing para
hacer capaz a la carga de atravesar la red intermedia.
Las tramas encapsuladas son encaminadas a través de
un túnel que tiene como puntos finales, los dos puntos
entre la red intermedia. El túnel en un camino lógico a
través del cual se encapsulan paquetes viajando entre
la red intermedia.
Cuando una trama encapsulada llega a su destino en
la red intermedia, se desencapsula y se envía a su
destino final dentro de la red. Tunneling incluye todo el
proceso de encapsulado, des encapsulada transmisión
de las tramas. (propio)
122
Figura 2. Funcionamiento del TUNEL
Fuente: (Anónimo, 2008)
2.5. PROTOCOLOS DE TÚNELES
Los protocolos PPTP, L2F y L2TP se enfocan
principalmente a las VPN de acceso remoto, mientras
que IPSec se enfoca mayormente en las soluciones
VPN de sitio - sitio.
Los principales protocolos de túnel son:
PPTP (Protocolo de túnel punto a punto) o (Point-
to-Point TunnelingProtocol). Permite extenderse a una
red privada a través de una red pública como Internet
a través de túneles. Es un estándar propuesto por
Microsoft, entre otras compañías, y junto con L2TP,
propuesto por Cisco Systems, son los candidatos más
sólidos para sentar las bases de un nuevo estándar de
la IETF.
L2F (Reenvío de capa dos). Es un protocolo de
capa 2 desarrollado por Cisco, Northern Telecom y
Shiva. Actualmente es casi obsoleto. Precursor del
L2TP. Ofrece métodos de autentificación de usuarios
remotos y carece de cifrado de datos.
L2TP. (Protocolo de túnel de capa dos) o (Layer
Two Tunneling Protocol). Surge de la confluencia de
las mejores características de otros dos protocolos de
entunelamiento: PPTP de Microsoft, y L2F (Layer-2
Forwarding) de Cisco Systems. Además de las
diferencias en el sistema de autentificación, L2TP ha
adquirido una popularidad particular por el uso de
IPsec (IP Security) para garantizar la privacidad.
Los dos principales componentes que conforman
L2TP son el LAC (L2TPAccess Concentrator), que es
el dispositivo que canaliza físicamente la llamada, y el
LNS (L2TP Network Server), que es el que canaliza y
autentifica elstream PPP.
IPSec. Es un protocolo de capa 3 creado por el IETF
que puede enviar datos cifrados para redes IP. En
realidad, es un protocolo que mejora la seguridad del
protocolo IP para garantizar la privacidad, control de
acceso, integridad, confidencialidad y autentificación
del origen de los datos.
2.6. ENCRIPTACIÓN DE VPN
Todas las VPNs tienen algún tipo de tecnología
de encriptación, que esencialmente empaqueta
los datos en un paquete seguro. La encriptación es
considerada tan importante como la autenticación,
ya que protege los datos transportados de la poder
ser vistos y entendidos en el viaje de un extremo a
otro de la conexión. Existen dos tipos de técnicas de
encriptación que se usan en las VPN: encriptación
de clave secreta, o privada, y encriptación de clave
pública.
En la encriptación de clave secreta, se utiliza
una contraseña secreta conocida por todos los
participantes que necesitan acceso a la información
encriptada. Esa contraseña se utiliza tanto para
encriptarcomo para desencriptar la información.Este
tipo de encriptación posee el problema que, como la
contraseña es compartida por todos los participantes
y debe mantenerse secreta, al ser revelada, debe ser
cambiada y distribuida a los participantes, con lo
cual se puede crear de esta manera algún problema
de seguridad. (Bryan, 2011)
2.6.1. ALGORITMOS DE ENCRIPTACIÓN
Una manera segura de la transmisión de datos o
información en una red virtual privada (VPN) es
implementar uno o más algoritmos de encriptación,
en la configuración del VPN, ya que como medio
de comunicación se usa el internet o similares, data
que puede ser vulnerable por este medio y puede ser
fácilmente capturada por personas ajenas, pero con
los medios de encriptación, esta data está cifrada y
no puede ser entendible por personas ajenas.
DES (DataEncryption Standard). Es un algoritmo
de cifrado en bloque simétrico, de longitud fija, el
cual consiste de dos permutaciones, 16 vueltas en
dondeelmensajede64bitsesdivididoendosbloques
de 32 bits, después de usar la primera permutación
llamada P1, es cifrado 16 veces utilizando cada
vez una subclave, la cual se genera 16 veces en
un proceso paralelo. En el proceso para descifrar
se utiliza el mismo algoritmo con las subclaves en
orden inverso, dando como consecuencia, la simetría
del algoritmo.
123
Figura 3: DES (Data Encryption Standard)
Fuente: (Daley, 1999).
Funcionamiento:
DES, es un algoritmo de cifrado en bloques
simétrico, el tamaño del bloque es de longitud fija de
64 bits, el algoritmo consta de dos permutaciones,
una al inicio conocida como P1, la cual se muestra a
continuación:
0 1 0 0 0 1 0 0
0 1 1 0 0 1 0 1
0 1 1 0 1 1 1 0
0 1 1 1 1 0 0 1
0 1 1 1 0 1 0 0
0 1 1 0 0 0 0 1
0 1 1 0 1 1 0 1
0 1 1 0 1 1 1 1
Tabla 1: algoritmo DES permutación Inicial
Fuente: (Gerson, 2016)
Después de recibir un bloque de entrada de 64 bits, el
primer paso consiste en aplicar al bloque de entrada la
permutación P1, teniendo como resultado un orden de
salida que se identifica leyendo la tabla de izquierda a
derecha y de arriba abajo. Significa que el bit del lugar
58enelmensajedeentrada,despuésdelapermutación,
ocupara la posición 1 y así sucesivamente.
Se muestra el resultado de haber realizado la
permutación P1, la parte superior se encuentra
marcada con el fin de indicar cuales son los bits que
forman el sub-bloque L0, los bits restantes forman el
sub-bloque R0, dando como resultado:
L0 = 11111111 00011000 11010111 11101010
R0 = 00000000 11111110 11001100 10000100
Permutación E: La salida de R0 es de 32 bits, se
utiliza la permutación E, con el propósito de expandir
a 48 bits y así poder realizar la suma OR exclusiva con
la clave Ki. a continuación, se muestra la tabla para
realizar la permutación E.
32 Bits.
0 0 0 0
0 0 0 0
1 1 1 1
1 1 1 0
1 1 0 0
1 1 0 0
1 0 0 0
0 1 0 0
Tabla 2: algoritmo DES - 32 bits
Fuente: (Gerson, 2016)
R0 = 0000 0000 1111 1110 1100 1100 1000 0100
0 0 0 0 0 0
0 0 0 0 0 1
0 1 1 1 1 1
1 1 1 1 0 1
0 1 1 0 0 1
0 1 1 0 0 1
0 1 1 0 0 1
0 1 0 0 0 0
0 0 1 0 0 0
Tabla 4: algoritmo DES permutación E
Fuente: (Gerson, 2016)
El resultado de la permutación (R0) es:
E(R0) = 000000 000001 011111 111101 011001
011001 010000 001000
RSA (Rivest-Shamir-Adleman). Es el algoritmo de
encriptación y autentificación más comúnmente
usado. Fue desarrollado en 1977 por Ron Rivest,
Adi Shamir y Leonard Adleman, y se incluye como
parte de los navegadores de Netscape y Microsoft,
así como aplicaciones como Lotus Notes y muchos
otros productos.
El funcionamiento de este algoritmo se basa en
multiplicar dos números primos extremadamente
grandes, y a través de operaciones adicionales
obtener un par de números que constituyen la clave
pública y otro número que constituye la clave
privada.
IDEA (International Data EncryptionAlgorithm).
Es un algoritmo de encriptación desarrollado en
el ETH de Zurich (Suiza) por James Massey y
XuejiaLai. Usa criptografía de bloque con una clave
de 128 bits, y se suele considerar como muy seguro.
Está considerado como uno de los algoritmos más
conocidos. Durante los años que lleva siendo usado,
no ha sido publicado ningún método práctico para
124
reventarlo, a pesar de los numerosos intentos que
han habido de encontrar uno. IDEA está patentada
en USA y en la mayor parte de los países europeos, y
la patente está en manos de Ascom-Tech AG. El uso
no comercial de IDEA es gratuito.
Funcionamiento
IDEA - Generación de las sub-llaves.
1. La llave de 128 bits divididos en 8 sub-llaves de
16 bits.
2. Los bits de la llave de 128 bits sufren una rotación
circular de 25 bits a la izquierda. Con esta nueva
llave se continúa en el paso
3. Los pasos anteriores se repiten hasta obtener las
52 sub-llaves de 16 bits, llamadas: Z1, Z2..., Z52.
IDEA en la Encriptación:
1. El mensaje se divide en bloques de 64 bits, los
cuales son codificados uno por uno.
2. Cada bloque de 64 bits se divide en 4 sub-bloques
de 16 bits, llamados: X1, X2, X3 y X4.
3. A estos cuatro bloques se aplica 8 veces los pasos 1
a 14 de la transparencia consecutiva.
4. Finalmente, a los cuatro bloques resultantes se
les aplica los pasos 15 a 18 de la transparencia
consecutiva.
5. Estos últimos cuatro bloques resultantes forman el
bloque de 64 bits codificado.
2.6.2. RIESGOS ASOCIADOS A LA
TECNOLOGÍA VPN
Cuando se desea implantar una VPN se debe estar
consciente de las ventajas que va a aportar a la
organización, sin embargo, es importante considerar
los riesgos que estas facilidades implican en caso de
no adoptarse las medidas necesarias al implantar una
VPN segura.
Los estándares utilizados para la implementación de
VPNs, garantizan la privacidad e integridad de los
datos y permiten la autenticación de los extremos
de la comunicación, pero esto no es suficiente: el
uso erróneo de las VPN puede ser catastrófico para
el negocio. Las medidas para implantar una VPN
“segura” incluyen el uso de certificados digitales para
la autenticación de equipos VPN, tokencards o tarjetas
inteligentes para la autenticación “fuerte” de usuarios
remotos, y para el control de acceso es importante
contar con un Firewall y sistemas de autorización.
2.6.2.1. CERTIFICADOS DIGITALES
Con el uso de certificados digitales, se garantiza la
autenticación de los elementos remotos que generan
el túnel y elimina el problema de la distribución de
claves. Implantar un sistema PKI (Infraestructura de
Clave Pública) para emitir los certificados digitales,
permite tener el control absoluto de la emisión,
renovación y revocación de los certificados digitales
usados en la VPN. El uso de PKI no se limita sólo a
las VPNs sino que puede utilizarse para aplicaciones
como firmas digitales, cifrado de correo electrónico,
entre otras.
2.6.2.1.1. AUTENTICACIÓN FUERTE
En la implantación de una VPN se debe verificar
que se estén realmente autenticando los usuarios.
Esto dependerá de dónde se almacene el certificado
digital y la clave privada. Si el certificado digital y la
clave privada se almacenan, protegidos por un PIN,
en una tarjeta inteligente que el usuario lleva consigo,
se está autenticando al usuario. Desafortunadamente,
aun no existe un estándar definido que permita la
implantación a gran escala de lectores de tarjetas en
los PCs.
El método más adecuado es autenticar a los usuarios
remotos mediante una la utilización de sistemas de
autenticación fuerte. Estos sistemas se basan en la
combinación de dos factores: el token y el PIN. De
esta forma se asegura que sólo los usuarios autorizados
acceden a la VPN de la organización.
2.6.2.2. MÉTODOS DE AUTENTIFICACIÓN NO
RECOMENDABLES
PAP (Password Authentication Protocol).
• Envía la password en texto claro.
EAP-MD5
• Desafió/Respuesta. No muy seguro.
SPAP (Shiva Password Authentication Protocol).
• Utiliza cifrado reversible.
CHAP (Challenge Handshake Authentication
125
Protocol).
• Utiliza MD5 para proporcionar autenticación
mediante desafío-respuesta.
• Requiere almacenar las contraseñas con cifrado
reversible en el servidor.
3.	CONCLUSIONES
La seguridad es uno de los factores fundamentales y
de éxito de la utilización de
algoritmos de encriptación, garantiza en todo momento
que las comunicaciones
sean fiables
Para permitir la comunicación entre dos personas
sin que una tercera persona pueda comprender el
mensaje transmitido se puede optar por algún tipo de
algoritmos de encriptación.
Elusodemétodosdeautentificaciónenimplementación
de VPNs asegura que sólo los usuarios autorizados
acceden a la VPN de la organización, puedan tener
acceso a esta.
La resistencia de la criptografía a los ataques
está basada en la dificultad calculatoria de ciertos
problemas matemáticos, o en la extrema confusión y
dispersión aplicada a la información.
4.	 REFERENCIAS BIBLIOGRÁFICAS
Caire R. (2016) Introducción a las rede privadas
virtuales (vpn) bajo gnu/linux
Caire R. (2016). Redes privadas virtuales (vpn) http://
www.lugro.org.ar/biblioteca/articulos/vpn_
intro/vpn_intro.html
Gonzales A. (2006). Redes privadas virtuales.
http://www.uv.es/ciuv/cas/vpn/index.html
Gonzales, P. (S.A) Cifrado.
ccia.ei.uvigo.es/docencia/SSI/practicas/
cifrado-jce.pdf
Gonzales, P (S.A)
(Tesis Pregrado). Universidad Mayor de San
Andrés, La Paz, Bolivia.
Muñoz M. (S.A.). Jornadas de Seguridad.
http://www.acis.org.co/memorias/
J o r n a d a s S e g u r i d a d / I V J N S I /
MauricioMunozIVJNSI.pdf
Muñoz F. (2003). El estándar, una necesidad para ser
competitivo.
http://www.idg.es/computerworld/articulo.
asp?id=153363
Reinosa B. (2011). Métodos de encriptación
	 VPN
https://es.slideshare.net/bryan_azr/mtodos-
encriptacin-en-vpns
Rodríguez C. (1998). Criptografía, MAPLE RSA.
www.publispain.com/supertutoriales/
matematica/criptografia/cursos/3/crypto.pdf
(S.A.). (2002). VPN: SSL frente a IPSec. www.idg.es/
comunicaciones/articulo.asp?id=133140
(S.N.). (S.A.). Control-de-acceso-la-solucion-de-
seguridad-para-redes-de-altas-prestaciones.
h t t p : / / w w w . c o m p u t i n g . e s /
Informes/200802210018/Control-de-acceso-
la-solucion-de-seguridad-para-redes-de-
altas-prestaciones.aspx
126
SEGURIDAD INFORMÁTICA EN ENTIDADES FINANCIERAS
Santander Silva Lucero Belén, Bonilla Aruquipa Saúl Yerko, Quisbert Mújica Albert Jhonatan
albertjhon.128@gmail.com, grillita_93@hotmail.com, saukobonilla@gmail.com
Universidad Mayor de San Andrés
Carrera de Informática
Gramática Española
RESUMEN
En este artículo se presenta el problema de la insegu-
ridad informática en entidades financieras, frente a la
vulnerabilidad de la información financiera y de los
usuarios ante las diferentes técnicas de hacking que se
conocen y otras que aún no se conocen.
Se menciona los conceptos de entidades financieras,
de hacking y las diferentes técnicas de hacking, sus
definiciones y como poder evitar que estos puedan
vulnerar nuestra información. También se toma en
cuenta los riesgos y análisis de estos riesgos desde la
probabilidad que dicha amenaza ocurra. Como tam-
bién se hará conocer como poder evitar los ataques
por hacking.
Palabras claves:
Información, hacking, Entidades financieras, seguri-
dad, amenaza riesgo, detección, prevención.
ABSTRACT
This article presents the problem of computer insecu-
rity in financial institutions, in front of the vulnerabil-
ity of financial information and users to the different
techniques of hacking that are known and others that
are not yet known.
It mentions the concepts of financial institutions,
hacking and the different techniques of hacking their
definitions and how to prevent them from violating
our information. It also takes into account the risks
and analysis of these risks from the probability that
such a threat occurs. As will also be known how to
avoid hacking attacks.
KEYWORDS
Information, hacking, financial institutions, security,
risk threat, detection, prevention.
1. INTRODUCCIÓN
Los medios de comunicación, transacciones bancarias
y/o comerciales utilizados carecen (en su mayoría) de
seguridad o ésta ha sido implementada en forma de
“parche” tiempo después de su creación. Cualquier
ataque, por lo general cada una de estas agresiones
tienen como causa una importantes pérdidas econó-
micas para las organizaciones, empresas entidades fi-
nancieras y bancarias además de la imagen negativa y
poco confiable que esta daría ante sus inversionistas
y administradores; esto se debe a que cada entidad fi-
nanciera y bancaria debe garantizar a todos sus clien-
tes que toda sus recursos informáticos se encuentren
debidamente disponibles al momento de requerir cual-
quier tipo de información y protegidos ante cualquier
tipo de amenaza tanto cibernético como para cualquier
tipo de virus de red y así poder cumplir con sus propó-
sitos que es garantizar la seguridad de la información
y del dinero tanto físico como virtual de los diferentes
usuarios, para ello no puede haber alteración o mani-
pulación por parte de factores externos.
Actualmente las empresas financieras y bancarias es-
tán expuestas a una gran cantidad de amenazas que
manipulan y vulneran sus sistemas informáticos, de
allí parte la importancia de mantener la seguridad de
los sistemas puesto que las consecuencias de un ata-
que informático pueden poner en riesgo la integridad
de la información. El principal es de tomar conscien-
cia de los peligros potenciales en la transmisión de
información confidencial y el desconocimiento de las
distintas técnicas de hacking empresarial.
Para las empresas financieras y bancarias lo más im-
portante es la información que ellos poseen de distin-
tas personas. Se puede decir que la información es uno
de los pilares más importante a la hora de toma de
decisiones en una entidad financiera y bancaria. De
allí el valor que tiene para estos entes la protección y
prevención de los sistemas de información.
127
Con el paso del tiempo se ha descubierto muchos pun-
tos débiles a ser atacados y son pocos los responsables
conscientes de la importancia que tiene la información
tecnológica.
Existe una gran necesidad de proteger la integridad
de la información de las organizaciones. Y es por ese
motivo el presente artículo se realiza un análisis para
conocer las principales técnicas de hacking y las po-
sibles amenazas a los que se encuentran expuestos los
sistemas de información de la organización.
2. DESARROLLO
En la actualidad la tecnología va creciendo al igual
que la inseguridad informática, se escucha en la ma-
yoría de las veces en las noticias, radio o periódicos
que cada día existe por lo menos un problema de inse-
guridad de la información como por ejemplo el robo
de identidad, robo de información de redes sociales o
en casos peores el robo de dinero que existen en enti-
dades financieras y bancarias.
Hoy en día las instituciones financieras están bajo mu-
cha presión para aumentar la seguridad de los datos
personales de los diferentes usuarios como la informa-
ción propia de la institución.
De acuerdo con la investigación de “riesgos de segu-
ridad de las instituciones financieras “(realizado por
kasperky lab y b2b internacional) la inversión en la
seguridad informática es prioritaria en instituciones
financieras y bancos debido ataques sufridos a su in-
fraestructura como a la información de sus clientes.
Los bancos comerciales al manejar grandes cantida-
des de dinero invierten tres veces más en la TI que
otras entidades no financieras, porque a opinión de los
gerentes de entidades bancarias prefieren invertir más
de lo debido en la seguridad que arriesgarse que ocu-
rran robos o malversación de dinero por ataques ci-
bernéticos. A pesar de los esfuerzos minuciosos de las
entidades financieras y de los bancos en la inversión
de seguridad informática ante las amenazas cibernéti-
cas conocidas y desconocidos no han podido eliminar
por completo el sesgo de que pueda ocurrir un fraude
cibernético.
A continuación, mostraremos un cuadro donde vemos
los diferentes riesgos en la seguridad informática, y
notaremos que el 70% de las instituciones financieras
experimenta por lo menos uno de estos riesgos, que en
lo particular debería no existir esa probabilidad que
exista fraudes cibernéticos.
Los riesgos relacionados con las transacciones banca-
rias móviles aumento la nueva amenaza cibernética ya
que la mayoría de las personas utilizan transacciones
bancarias móviles en los próximos años, debido a que
muchas personas no tienen el debido cuidado en su
información personal y reciben ataques de phishing
(clonación de identidad). A vista que aumentaba los
ataques de phishing a sus clientes los bancos y enti-
dades financieras tuvieron que revaluar sus estrate-
gias para el cuidado de la información de sus clientes
creando nuevas opciones de claves y/o huellas digi-
tales para garantizar que todo movimiento de dinero
sea por las personas correctas y verdades y no así una
persona fraudulenta.
Figura 1. Estadística de Fraudes Cibernéticos y Vul-
nerabilidad de la Seguridad Informática
Fuente. (Seguridad informática, el reto empresa-
rial del momento por: redacción el tiempo 5 de
mayo de 2005, 05:00 am.)
En términos de impacto económico, las pérdidas por
crimen cibernético a nivel mundial son de más de 300
mil millones de dólares.
Sólo en fraudes bancarios, clonación y robo de cre-
denciales, se estima que por cada 10 mil pesos que se
muevan en una cuenta, 20 pesos se pierden por frau-
des.
Los cibercriminales están logrando fácilmente sus ob-
jetivos a partir de abusar de la confianza y naturaleza
del ser humano.
3. HACKING EN ENTIDADES FINANCIERAS
La entidad financiera se puede definir de diferentes
maneras según Una entidad financiera es cualquier
entidad o agrupación que tiene como objetivo y fin
128
ofrecer servicios de carácter financiero y que van des-
de la simple intermediación y asesoramiento al mer-
cado de los seguros o créditos bancarios”. Por su parte
el Hacking se define como el conjunto de Técnicas y
procedimientos utilizados por una persona con gran
cantidad de conocimiento en el ámbito de la contra
informática.
Con el avance de las tecnologías se han descubiertos
otros patrones de delincuencia y por lo tanto es impor-
tante que, como informáticos, podremos relacionarnos
más con conocimientos del área financiera, para que
tomemos conciencia y seriedad frente a los problemas
que pueden llegar a afectar no sólo nuestro empleo
sino, peor aún, nuestra información en cualquier mo-
mento.
Existe una relación entre la criminalidad, como el mal
más antiguo de la sociedad humana, y la tecnología
informática y telemática, como los nuevos logros y
conquista de la inteligencia humana. Como producto
de esa relación, aparece un fenómeno que se ha deno-
minado de la criminalidad informática según Rodolfo
Herrera Bravo la criminología informática es: “Actos
económicos criminales con el uso de ordenadores o
sistemas de comunicación. En sentido amplio, es todo
delito que implique la utilización de cualquier medio
de tecnología informática. La conducta antijurídica,
culpable y punible, se vale de medios tecnológicos
para la comisión del delito”, la cual emerge de las di-
ferentes técnicas que son utilizadas por las personas
para apoderarse de bienes ajenos.
La criminalidad informática es una forma de violar los
sistemas de seguridad de una entidad financiera, de
modo que se pueda acceder a sus sistemas de control u
obtener información o datos deseados. Por tal motivo
las entidades financieras invierten cada vez más en la
seguridad informática.
La actividad económica de prestar servicios basados
en interconexiones con diferentes redes, exige contar
con sistemas de seguridad informática adicionales que
garanticen la confiabilidad de dichos servicios.
La seguridad informática es un área exige la presencia
de un equipo capacitado y dedicado a esta labor, lo
que conlleva a la especialización de las personas en
diversos campos de la seguridad informática.
Figura 2: La Tecnología, un nuevo medio para
cometer delito
Fuente. ( Las nuevas tecnologías y los delitos infor-
máticos 15 agosto, 2017)
4. RIESGOS DE HACKING EMPRESARIAL
En el área de informática, existen amenazas como son:
ataque de virus, códigos maliciosos, gusanos, caballos
de Troya y hackers; con el uso del Internet como ins-
trumento de comunicación y colaboración, los riesgos
han crecido de tal forma que ahora las empresas deben
enfrentar ataques cibernéticos de negación de servicio
y amenazas combinadas; con las diferentes técnicas
de hackeos que existen y otras técnicas que aún no se
han descubierto. Cada día va en aumento la cantidad
de casos e incidentes relacionados con la seguridad
de los sistemas de información que comprometen los
activos de las empresas. Las amenazas siempre han
existido, la diferencia es que ahora, el enemigo es más
rápido, más difícil de detectar y mucho más atrevido.
Por ello toda organización debe estar bien preparada,
en alerta y saber implementar sistemas de seguridad
basados en un análisis de riesgos para evitar y/o mi-
nimizar las consecuencias. Es importante conocer con
detalle el entorno que respalda los procesos de nego-
cio de las organizaciones en cuanto a su composición
para priorizar las acciones de seguridad de los pro-
cesos claves de negocio más críticos y vinculados al
logro de los objetivos de la empresa.
Es importante para implementar la seguridad de la in-
formación es el análisis de riesgos existentes en una
entidad financiera sobre su infraestructura (en caso
de un robo directo), la información importante de los
usuarios y para la empresa.
129
Las amenazas son consecuencia de las fallas de segu-
ridad que deben ser eliminadas al máximo para que
la información que se quiere proteger esté libre de
riesgos de violación de la seguridad. Por lo tanto, la
relación entre amenaza-incidente-impacto, es la con-
dición principal a tomar en cuenta en el momento de
priorizar acciones de seguridad para la correcta pro-
tección de los activos e información de las entidades
financieras.
Otro punto importante es la reciprocidad costo-bene-
ficio.
Este cálculo consiente en que sean evaluadas las me-
didas de seguridad con relación a su aplicabilidad y
el beneficio que se logrará. En las entidades financie-
ras está clara la relación costo-beneficio, ya que todas
aquellas implementaciones de la seguridad (el equipo
de ejecución del proyecto, la alta administración y to-
dos sus usuarios) están conscientes de los beneficios
que las medidas de seguridad traerán para los indivi-
duos y para la organización como un todo.
5. TÉCNICAS DE HACKING
A continuación, presentamos una clasificación de las
diferentes formas de ataque, una evaluación de las po-
sibles consecuencias que derivan de éstas, así como
las maneras más acertadas de prevenirlas y contrarres-
tarlas.
En el primer grupo se ubican las técnicas de monito-
rización que son la etapa de observación. Estas son:
Scanning (Escaneo de puertos), Enumeración del ob-
jetivo y Sniffing (olfateo).
El Escaneo de puertos es el primer paso en la obten-
ción de información básica sobre la red. Su objetivo es
indagar por el estado de los puertos de un host conec-
tado a una red, y si estos puertos están abiertos para
analizar posibles vulnerabilidades.
Las consecuencias son constantes avisos del firewall
y utilización maliciosa de puertos abiertos por parte
de intrusos.
Es de suma importancia que todo esté bien configura-
do con aplicaciones que cubran todos los requerimien-
tos y con unos buenos estándares de encriptación que
aseguren la información, y un firewall que garantice el
cuidado de los puertos.
Con la Enumeración del objetivo se recoge y organiza
la mayor cantidad de información atinente a compu-
tadores, redes, aplicaciones y servicios. Al tener toda
esta información organizada y disponible, lo que se
pretende es avanzar a un siguiente estado donde el ata-
que cobra fuerza y los resultados van a ser inmediatos.
Los atacantes establecen conexiones activas con el
sistema y llevan a cabo consultas dirigidas. Obtienen
información en lo que respecta a máquinas, recursos
de red, aplicaciones, y lo referente al sistema opera-
tivo.
Con el conocimiento de cualquier sistema el intruso
puede preparar un ataque y acceder a todos los recur-
sos informáticos. Este tipo de intromisión es el punto
de partida para llevar a cabo ataques de Validación y
de Modificación.
Para protegerse de ataques de enumeración se deben
“configurar correctamente los servicios para que no
muestren más información de la necesaria. No deben
usarse nombres por defecto para archivos de configu-
ración y hay que desactivar puertos de administración
http y snmp (Seguridad en VoIP: Ataques, Amenazas
y Riesgos - Roberto Gutiérrez Gil - 2008)”.
Con el Sniffing se obtiene información de todo el trá-
fico que pasa por una red. En esta técnica “se usan
analizadores de protocolos, que son programas que
permiten monitorizar y analizar el tráfico de una red
(Seguridad en VoIP: Ataques, Amenazas y Riesgos -
Roberto Gutiérrez Gil - 2008)”.
Las aplicaciones descifran los paquetes de datos que
viajan por la red y los almacenan para luego analizar-
los.
Entre toda esta información se pueden distinguir con-
traseñas, mensajes de correo electrónico, datos banca-
rios, y otros datos confidenciales de usuario.
Existen dos técnicas esenciales para lograr la detec-
ción de los sniffers. La primera se basa en el host, y
es determinando si la tarjeta de red del sistema está
funcionando en modo promiscuo. La segunda se basa
en la Red. Igualmente, la información debe enviarse
encriptada con algún tipo de tecnología como PGP ó
GnuPG. Para evitar ataques en las redes se recomien-
da utilizar encriptación WPA. Si sólo se cuenta con
WEP, la contraseña debe ser cambiada con regulari-
dad. Los routers, también, deben estar bien protegidos
con contraseñas.
130
En el segundo grupo se ubican las técnicas de Vali-
dación donde se “suplanta al dueño o usuario de la
máquina mediante el uso de sus cuentan de acceso y
contraseñas (Sistema hibrido para la detección de có-
digo malicioso - Jorge Argente Ferrero - 2.009)”.
Una de ellas es el Ataque por fuerza bruta y se define
como el procedimiento por medio del cual se inten-
ta acceder a través de la obtención de la clave. Estos
ataques se realizan obteniendo el archivo donde están
todas las contraseñas encriptadas, y de manera offline
se hallan todas las combinaciones posibles de dichas
contraseñas.
Algunos sistemas no permiten acceder cuando se ha
incurrido en cierto número de intentos fallidos. Sin
embargo, otros le hacen la vida fácil a quienes preten-
den acceder con esta técnica, ya que utilizan las con-
traseñas más comunes.
Las medidas para defenderse contra los ataques por
fuerza bruta permiten de cierta manera controlar el in-
tento de acceso no autorizado. El más común de estos
mecanismos es el denominado “regla de los
tres strikes”, que consiste en el bloqueo del acceso
a una cuenta después de varios intentos de inicio de
sesión fallidos (generalmente tres) (Lightweight pro-
tection against brute force login attacks on web appli-
cations) .
En el Spoofing se suplanta la identidad de un disposi-
tivo en una red informática para obtener información
restringida.
Este ataque tiene algunas variedades entre las que se
destaca el IP Spoofing que “consiste en generar paque-
tes de información con una dirección IP falsa (Sistema
hibrido para la detección de código malicioso - Jorge
Argente Ferrero - 2.009)”. Esta variedad de Spoofing
tiene ciertas desventajas iníciales, como es el hecho de
que la host víctima puede cortar la conexión o que los
routers actuales no admiten paquetes cuyos remiten-
tes no corresponden con los que administra en su red,
lo cual acortaría el engaño a la red gestionada por un
router (Suplantación de la identidad - gpd.sip.ucm.es).
El riesgo más conocido de este ataque es el de Phi-
shing, donde una persona es timada y se le hace creer
que ha entrado a su entidad financiera de confianza.
Existen algunas medidas que se pueden utilizar para
contrarrestar esta técnica que van desde el uso de IP-
sec para reducir los riesgos hasta la utilización de fil-
tros que permitan asociar una dirección IP al tráfico
que sale de la red en cuestión.
El Hijacking es una técnica por medio de la cual se
intercepta y se roba una sesión de algún usuario para
apropiarse de algún servicio. El atacante por medio
de un software sniffer husmea los paquetes que están
circulando por la red y envía paquetes al servidor, y
con esto simula y se adelanta al usuario autorizado.
Como primera medida de protección se debe usar la
encriptación, para que los datos que viajen por la red
se encuentren codificados. No se puede dejar de lado
el firewall, el antivirus y el antispyware. Los proto-
colos de seguridad tales como https son importantes
también para evitar el robo de sesión.
La Ingeniería Social es un método basado en engaño
y persuasión para obtener información significativa
ó lograr que la víctima realice un determinado acto,
como, por ejemplo, ejecutar un archivo que le llegó
por email (10Hacking Ético - Carlos Tori - 2008).
Esta técnica es la que se usa con mayor frecuencia a
la hora de indagar sobre nombres de usuarios y con-
traseñas.
“Es un método que puede llevarse a cabo a través de
canales tecnológicos (impersonal vía Internet o teléfo-
no) o bien en persona, cara a cara (Ibíd)”.
Algunas medidas a tener en cuenta son:
•	 Nunca divulgar información sensi-
ble con desconocidos o en lugares públicos.
•	 Si se sospecha que alguien intenta
realizar un engaño, hay que exigir que se
identifique y tratar de revertir la situación in-
tentando obtener la mayor cantidad de infor-
mación del sospechoso.
•	 Llevar a cabo programas de con-
cientización sobre la seguridad de la infor-
mación (Ingeniería Social: Corrompiendo
la mente humana -http://revista.seguridad.
unam.mx/numero-10/ingenier%C3%AD-so-
cialcorrompiendo-
la-mente-humana).
131
En los tipos de ataques D.o.S. se consigue que los ser-
vidores y redes informáticas colapsen y que de esta
manera ya no puedan brindar sus servicios como lo
hacen habitualmente.
La técnica Jamming se refiere al bloqueo de un canal
de comunicación con la intención de impedir el flujo
de información. “Aquí se satura al ordenador víctima
con mensajes que requieren establecer conexión y dar
respuesta. Como la dirección IP del mensaje puede
ser falsa, la máquina atacada intenta dar respuesta a
la solicitud de cada mensaje saturando su buffer con
información de conexiones abiertas en espera de res-
puesta (Sistema hibrido para la detección de código
malicioso – Jorge Argente Ferrero - 2.009)”.
Algunos elementos importantes para tener en cuenta
a la hora de prevenir y descubrir ataques de Jamming
son:
•	 La eliminación de las vulnerabili-
dades conocidas en los comportamientos del
protocolo y la configuración del host.
•	 Filtrar el tráfico.
•	 La detección de ataques (The dark
side of the Internet: Attacks, costs and re-
sponses).
El SynFlooding consiste en mandar paquetes SYN a
una máquina y no contestar a los paquetes ACK pro-
duciendo en la pila TCP/IP de la víctima una espera de
tiempo para recibir la respuesta del atacante (Sistema
hibrido para la detección de código malicioso - Jor-
ge Argente Ferrero - 2.009). Mediante aplicaciones
maliciosas se falsean las direcciones IP de origen, ha-
ciendo múltiples intentos de conexión desde un mis-
mo equipo, lo que al hacerse en mayor escala llega a
saturar el ancho de banda y colapsar los servicios que
brindan el servidor (Sistema para Comunicación de
Redes LAN, Inalámbricas y Bluetooth - AngelHaniel
Cantú Jáuregui - 2008).
Entre las consecuencias están: Saturación de los re-
cursos de memoria, incapacidad de establecer co-
nexiones adicionales e inundación de puertos como
Smtp y http.
Algunas medidas importantes son: Blindar el servidor
con un firewall del tipo stateful, disponer de un sis-
tema operativo actualizado y habilitar la protección
SYN Cookie.
Las técnicas del tipo Modificación buscan la altera-
ción no autorizada de los datos y ficheros de un sis-
tema.
El Borrado de huellas consiste en modificar los fiche-
ros log del sistema operativo de la máquina asaltada,
donde queda constancia de la intrusión, para borrar el
rastro dejado por el atacante (Sistema híbrido para la
detección de código malicioso - Jorge Argente Ferrero
- 2.009). El intruso puede borrar sus rastros progra-
mando un zapper adecuado al objetivo y al modo de
gestionar registros que existe en el servidor. A su vez,
debe borrar todos los log´s que éste modifica tras su
paso y sólo eliminar las entradas que corresponden a
dichas sesiones (Hacking Etico - Carlos Tori - 2008).
Las consecuencias son: Posibilidad de ataque futuro,
al no detectarse la intrusión a tiempo y pérdida de in-
formación de la mano del borrado de archivos.
En cuanto a medidas de protección, si se detecta al
intruso pueden ocurrir tres cosas importantes. Lo pri-
mero es que sabiendo dónde está el hueco de seguri-
dad, éste puede ser cubierto. Lo segundo es que con
el conocimiento obtenido se pueden evitar ataques
posteriores, y se puede llevar a cabo es el rastreo del
atacante.
Figura 3: Internet, almacén de información valisa
Fuente: Tutoriales hacking (septiembre 2014)
6. APORTES
El Hacking Empresarial se define como el conjunto de
técnicas y procedimientos utilizados por una persona
con gran cantidad de conocimiento en el ámbito de la
contra informática.
La relación entre los riesgos y los ámbitos se especi-
fica comparando qué tan alto es el riesgo que se toma
132
en cada una de las decisiones con respecto a los dife-
rentes ámbitos.
Las técnicas de Hacking parten de cuatro grandes gru-
pos que son: Monitorización, Validación, DOS (Dene-
gación de Servicio) y Modificación. Cada una de las
técnicas expone una definición, su objetivo, el modo
de operación, sus consecuencias y cómo detectarla ó
prevenirla.
El grupo de Monitorización está compuesto por Scan-
ning (Escaneo de Puertos), Enumeración y Sniffing
(Olfateo).
Validación se compone de Fuerza bruta, Spoofing (Su-
plantación), Hijacking (Robo de sesión) e Ingeniería
Social. En el DoS ubicamos las prácticas de Jamming
(Interferencia) y SYN Flooding (Ataque por sincro-
nización). Y finalmente en el grupo de Modificación
encontramos el Borrado de huellas.
Se le brinda especial importancia al primer y segundo
grupo de prácticas, ya que allí se gestan las bases para
cualquier intrusión en un sistema informático. Del ter-
cer grupo se analizan las dos técnicas más importantes
y del último grupo se estudia la técnica con la cual
finaliza cualquier ataque de Hacking
7. FORMAS DE PROTEGER UNA EMPRESA
DE UN CIBERATAQUE.
6.1.	ANÁLISIS DE EXPOSICIÓN DE RIEGO
Se debe hacer un análisis de los incidentes que puede
suceder para calibrar la seguridad que protege al siste-
ma y a si no afectar a la institución.
7.2.	INVERTIR SOLO LO NECESARIO
No se debe derrochar muchos recursos o dinero, por-
que no todos requieren la misma seguridad y tampoco
tienen la misma forma de negocio.
7.3.	INFORMACIÓN Y DATOS IMPORTAN-
TES BAJO SEGURO
El internet seguro es una de las mejores opciones para
proteger datos e información de la empresa.
7.4.	ACTUALIZAR SOFTWARE
Es necesario actualizar nuestro software ya que di-
ficulta a los hackers poder realizar daño a nuestros
equipos, además las actualizaciones brindan una me-
jor versión que las anteriores y corrige déficits de se-
guridad.
7.5.	 TENER CONTRASEÑAS ALFANUMÉ-
RICAS
Es necesario que las contraseñas contengan letras ma-
yúsculas y minúsculas, números y símbolos para que
a si no puedan ser descifradas con mucha facilidad.
7.6.	 COMPROBAR DE DONDE PROCEDE
EL CORREO ELECTRÓNICO
Una forma de robar información es a través de un co-
rreo falso, por eso debe comprobar la procedencia del
remitente siempre que se pueda.
7.7.	EVITAR DESCARGAR PROGRAMAS
NO AUTORIZADOS
Se debe tener cuidado de donde se descarga progra-
mas o documentos ya que por medio de ellos los ci-
berdelincuentes meten una serie de virus.
7.8.	REALIZAR COPIAS DE SEGURIDAD
Se debe realizar copias de seguridad para así no perder
la información, ya que los dispositivos de almacena-
miento pueden fallar, una buena opción sería la con-
tratación de un servicio de nube, que también te ofrece
una protección contra ciberataques.
Figura 4: Control de Usuarios
Fuente: Operaciones de inversión en Internet: entre
la legalidad y el engaño
8. ¿QUE VENTAJAS Y DESVENTAJAS DE LA
SEGURIDAD INFORMÁTICA?
8.1.	 VENTAJAS
1) Asegura la privacidad y la integridad de datos e in-
formación de un sistema informático y también de sus
propios usuarios.
2) Crea precauciones de garantía para evitar daños y
133
problemas en el sistema.
3) Crea resistencias de mucha seguridad utilizando
contraseñas, antivirus cortafuegos, etc. para la protec-
ción del sistema y de los equipos de los usuarios.
4) Dar mucha seguridad a la población sobre el ma-
nejo de la tecnología informática para evitar posibles
amenazas.
8.2.	 DESVENTAJAS
1) En equipos antiguos, un antivirus efectivo, se vuel-
ve más pesado e incómodo, ya que lo vuelve más lento
al equipo por usar mucho espacio en la memoria.
2) En los últimos tiempos los requisitos de la contra-
seña son más complejos ya que te pide cambiar cons-
tantemente tu contraseña, y esto a veces es dificultoso
recordarlas.
9. CONCLUSIONES
Este trabajo ha descrito la naturaleza y características
de la importancia de la seguridad informática en en-
tidades financieras, la importancia de implementar la
seguridad informática y cuál es el impacto que esta
traerá a la organización. También, se establecieron
ciertas recomendaciones que ayuden a las personas a
cuidar su información.
Con el conocimiento adquirido se dispone de cierta
ventaja para afrontar muchos de los riesgos que sur-
gen cada día en materia de seguridad informática.
Se ha podido observar la gran cantidad de situaciones
de amenaza en las que se encuentran inmersas las en-
tidades financieras, y como se podría capacitar al per-
sonal para que tomen medidas preventivas para evitar
posibles fraudes cibernéticos.
El humano debe tomarse como el elemento clave, ya
que de unas adecuadas sensibilizaciones dependen los
resultados a la hora de afrontar situaciones que ponen
en riesgo la estructura organizacional.
Ahora queda en manos de los directivos de estas or-
ganizaciones el tomar las mejores decisiones que
procuren en un largo plazo obtener altos logros en la
defensa de sus sistemas de información con mecanis-
mos de protección de la información y mecanismos de
prevención.
10. REFERENCIAS BIBLIOGRÁFICAS
• Adams C, Jourdan G, Levac J, Prevost F.2011].
• Argente J, García R, Martínez J. Sistema híbrido
para la detección de código malicioso. De-
partamento de Ingeniería del Software e Inte-
ligencia Artificial - Facultad de Informática.
• Cantú A. Seguridad Informática: Sistema para co-
municación de Redes LAN, Inalámbricas y
Bluetooth [Trabajo de Grado]. Tamaulipas:
Universidad Autónoma. Facultad de Ingenie-
ría;2008. 123 p.
• DIARIO DIGITAL DE INFORMACIÓN ECONÓ-
MICA Y FINANCIERA - Domingo 15 de oc-
tubre de 2017 La importancia de la seguridad
en los bancos y en el sector financiero.
• Gutiérrez R. Seguridad en VoIP: Ataques, Amena-
zas y Riesgos. Universidad de Valencia.2008.
• Herrera E., SEGURIDAD INFORMÁTICA, 15 de
septiembre de 2014, https://informaticasegu-
raupc.wordpress.com/author/ensambles01/
• http://www.seguridadenamerica.com.mx/noticias/
de-consulta/articulos-destacados-de-seguri-
dad/22584-seguridad-en-bancos.
• Lightweight protection against brute force login at-
tacks on web applications - http://ieeexplore.
ieee.org.ezproxy.utp.edu.co/stamp/stamp.
jsp?tp=&arn umber=5593241
• Ingeniería Social: Corrompiendo la mente humana
-http://revista.seguridad.unam.mx/nume-
ro-10/ingenier%C3%AD-socialcorrompien-
do-la-mente-humana.
• Kim W, Jeong O, Kim C, So J. The dark side of the
Internet: Attacks, costs and responses.Inf.
Sys. 2011; 36 (3): 675-705.
• Moreno J. Seguridad Informática: Técnicashacker.
2010 -http://informatica.gonzalonazareno.
org.
• Pérez J. y Merino M., SEGURIDAD INFORMÁTI-
CA, 2008, https://definicion.de/seguridad-in-
formatica/
• Promonegocios.net -http://www.promonegocios.
134
net/mercadotecnia/empresadefinicionconcep-
to.html [Consulta:de septiembre de 2011].
• Reflexiones sobre la delincuencia vinculada con la
tecnología digital (basadas en la experiencia
chilena) Rodolfo Herrera Bravo Abogado
Doctorando en Derechos Constitucionales e
Informática.Seguridad y delito informático.
• SEGURIDAD INFORMÁTICA, EL RETO EM-
PRESARIAL DEL MOMENTO Por: Redac-
ción ELTIEMPO 5 de mayo de 2005, 05:00
am.
• Veniamin Levtsov, Vicepresidente, Negocio Em-
presarial, en Kaspersky Lab.https://business.
kaspersky.com/how-the-financial-industry-re-
acts-to-cyberthreats/6610.
• The dark side of the Internet: Attacks, costs and
responses - http://www.sciencedirect.com.
ezproxy.utp.edu.co/science/article/pii/S0
30643791000132
135
SISTEMAS OPERATIVOS, EL SOFTWARE BASE DE LA COMPUTADORA
Salcedo Ayala Luis Rubén
salcedo@hotmail.com
Universidad Mayor de San Andrés
Carrera de Informática
Gramática Española
RESUMEN
El sistema operativo es unsoftware con el cual lle-
ga a funcionar en granmedida un ordenador, siendo
este el que seencarga respecto al gestionamiento , or-
ganización y administración de todos los recursos y
elementos del ordenador, en el cual se relacionan los
elementos físicos (Hardware) junto con los elementos
simbólicos o no tangibles.
Estos programas principales derivan su inicio des-
de varias décadas atrás, iniciando alrededor de los
años sesenta, a partir de este tiempo los sistemas
operativos fueros desarrollando de maneras conti-
nua y adaptándose más con respecto a las creacio-
nes y apariciones de nuevos elementos en el área de
informática, relacionándose con los mismos y am-
pliando la calidad, las opciones, características, etc.
Que llega a ofrecer el ordenador dentro de su época.
Con el pasar de los años han llega a existir toda una
variedad de opciones respecto al sistema operativo en
estos destacando a gran medida, Windows por el lado
de los ordenadores personales y Android, siendo este
conocido en los aparatos móviles; además de estos
dos, también existen una variabilidad de estos sof-
tware según su época y además del lo conocidos que
estos llega a ser.
Palabras Clave: Microsoft, sistema operativo, Win-
dows, software, hardware, Android.
ABSTRACT
An operating system (OS) is the software component
of a computer system that is responsible for the man-
agement and coordination of activities and the sharing
of the resources of the computer. The OS acts as a host
for application programs that are run on the machine.
As a host, one of the purposes of an OS is to handle the
details of the operation of the hardware. This relieves
application programs from having to manage these de
tails and makes it easier to write applications. Almost
all computers use an OS of some type.
OSs offer a number of services to application programs
and users. Applications access these services through
application programming interfaces (APIs) or system
calls. By using these interfaces, the application can
request a service from the OS, pass parameters, and
receive the results of the operation. Users may also
interact with the OS by typing commands or using a
graphical user interface (GUI).
This kind of software changed with the pass of the time
and evolves making new characteristics and functions
helping to the people in different ways, talking about
the technology and how that have been useful for the
mankind.
Keywords: Operating system, host, software, appli-
cations, interface, commands.
Figura 1. Grafica de S.O.
Fuente: (Anónimo, 2017)
1.	 INTRODUCCIÓN
El sistema operativo es el programa principal y funda-
mental que se encuentra dentro de una computadora,
gracias a este, el ordenador llega a poder desarrollar la
capacidad en gestionar los recursos requeridos y nece-
sarios en el sistema informático, relacionando tanto el
software (parte intangible, como los programas) como
el hardware (parte física).
136
Actualmente existen diferentes tipos de sistemas ope-
rativos, estos llegando a variar según el hardware en
el que se aplica, además si estos llegan a ser utilizados
con un pago previo o llegan a ser gratuitos.
2. DESARROLLO
¿Qué es un sistema operativo?. Es una pregunta
que una persona debe conocer en primer lugar, este
basándose en un concepto en específico, siendo “el
conjunto de programas informáticos que permite
la administración eficaz de los recursos de una com-
putadora”(Porto, 2008.), siendo gracias a este el poder
desarrollar diferentes funciones que llegan a ayudar
al usuario; en estos sistemas, llegan a comunicarse en
base de un idioma en específico, siendo de este que se
llega a traducir a un idioma que llega a ser más com-
prensible a nuestro lenguaje (aunque este se llega a
plantear de mejor manera con el idioma inglés).
Un sistema operativo es un programa con el cual se
desarrolla de una manera más amplia y variada el
funcionamiento de un hardware, diferencia de otros
tipos de software, de este se llegan a derivar los de-
más, mientras otros tipos de software, simplemente
cumplen con una función en específico, la función
del sistema operativo llega a ser el programa priori-
tario con el cual una computadora llega a funcionar
con una gran medida y desarrollar diferentes tipos de
operaciones y funciones, siendo de hecho, en este sof-
tware se llegan instalar dentro del S.O.; un dato extra
que se puede mencionar acerca de este llega a ser que
el mismo esta compuesto con diversas herramienta y
elementos tales como imágenes o iconos, el cual lle-
gan a ayudar en facilitar la elaboración de diferente
operaciones y actividades (sean a nivel personal, edu-
cacional , laboral o profesional).
Ciertas funciones que el sistema operativo puede ofre-
cer es:
•	 El poder administrar múltiples programas de ma-
nera simultáneay organizada.
•	 Se ocupa enlas relaciones con el usuario, por di-
ferentes medios de entrada y salida, emitiendo los
datos y también ayuda a recibir los mismos.
•	 Logra evaluar y controlar las funciones del com-
putador y de los elementos o hardware del mismo.
2.1. LA EVOLUCIÓN DE LOS S.O.
Los sistemas operativos han ido evolucionan con el
paso del tiempo, empezando desde los años 40, sido a
finales de esta década donde surgió la primera gene-
ración de computadoras, aunque en estos se debe des-
tacar que no existía de manera clara los S.O. debido a
que los programadores interactuaban de manera muy
directa con el ordenador, siendo esto aparatos de gran
tamaño y con un elevado costo económico.
A principios de la década de los 50, los sistemas ope-
rativos hacen una aparición a un nivel ligero de di-
gresión, con desarrollo simple, este cuenta con la ca-
pacidad de procedimiento de lotes, además del poder
almacenar datos de manera temporal reduciendo el
tiempo de carga de los programas. Posteriormente en
los años 60 existieron varias mejoras y cambios, esto
gracias al nacimiento del circuito cerrado, con el cual
se lograron realizar diversas operaciones, tales como
la multi programación, además el poder realizar múl-
tiples operaciones de manera simultánea, además de
mejorar el tiempo de respuesta por parte del ordena-
dor. Centrándose en la década de los 80 y gracias a la
aparición de los chip, llego a la mejora y el desarrollo
de nuevas e importantes funciones, el nacimiento de
nuevos lenguajes de programación siendo el caso del
C++ y el Eiffel, además de la popularización del MS-
DOS siendo el primer sistema operativo de Microsoft
que llego a ganar popularidad y ser de los mas usados.
No mucho tiempo después nació un nuevo S.O. por
parte la misma empresa, este es Windows 1.0, nombre
que se le dio debido a los cuadros o ventanas informá-
ticas que se presentaban en el mismo sistema.
Figura 2. Windows 1.0
Fuente: (Anónimo, 2017)
Sus características principales eran:
•	 “Interfaz gráfica con menús desplegables, venta-
nas en cascada y soporte para mouse.
137
•	 Gráficos de pantalla e impresora independientes
del dispositivo.
•	 Multitarea cooperativa entre las aplicaciones Win-
dows.
Windows 1.0 requiere como mínimo 256 KB,  y reco-
mienda disponer  de 512 KB” (Anónimo, 2011.).
Posterior a este, surgió toda una serie de nuevos siste-
mas operativos provenientes de esta empresa, pasando
por: Windows 2.0; cuanto este nuevo software para
la computadoranació en el año 87, un nuevo lenguaje
de programación también apareció este siendo el len-
guaje de programación C++, mientras tanto el sistema
operativo UNIX dominaba los sistemas operativos
además del sistema Mac. A finales de esta década Mi-
crosoft puso al mercado su segunda versión de Win-
dows, en este se agregó el ‘Panel de control’ el cual
aúnestá disponible en los S.O. actuales.
Figura 3. Unix a finales de 1980
Fuente: (Anónimo, 2017)
A principios de los años noventa, apareció la nueva
versión de software proveniente de la actualmente co-
nocida empresa de Bill Gates, siendo la versión 3.0 y
este apareció en mayo del inicio de la década, el cual
se presentó con las siguientes características:
•	 “Modo estándar (286), con soporte mejor
soporte de memoria (largememory).
•	 Se agregó en Administrador de Programas y
de Archivos
•	 Soporte de Red
Soporte para combo boxes, menús jerárquico y los ar-
chivos .INI privados para capa aplicación empezaron
a cobrar más valor.”(Anónimo, 2011.)
Estas caracteristicas optenidas daban un nivel de va-
lorizacion enlos hambidos laborale sy locales, ademas
de la iclusion de ciertos programas de entretenimien-
to o juegos(solitario, buscaminas); ademas que en el
nivel grafico este se llego a avanzar a 16 colores y la
mayor utilizacion de los disketes.
Figura 4. Windows 2.0.
Fuente: (Anónimo, 2017)
Un año después en el ’91, hace su aparición la pinera
versión de Linux, un sistema que se encuentra basado
en UNIX con ciertas características similares al MS-
DOS, debido a que esta época el programa principal,
solo se podía operara por medio de comandos, como
Microsoft planteo en el inicio; será posterior cuando
se desarrolle Linux de manera mas sencilla y gráfica.
Unos años después se lanza Windows NT (new te-
chnology) este tras el gran recibimiento del anterior
Windows, apareció ofreciendo nuevas características,
entre las cualesdestaca el ser un S.O. de 32 bits, aun-
que hubo problemas con respecto a la compatibili-
dad entre el software y el hardware; posterior a este
se ofreció otras versiones, entre estas el NT 3.1, NT
3.5/3.51 este último publicado a finales del año 94.
A mediados del año 95, Microsoft lanza al mercado
uno de los S.O. que llego a destacar y ser de los mas
cocidos, el Windows 95; desde este software inicia la
utilización de los correos electrónicos fax/módems,
juegos multimedia, además que ese llego a incorporar
el sistema de archivos FAT32 y el acceder a la cone-
xión USB, además de este también se podían acceder
la lectura de disketes y CD’s; ciertos requisitos que
llegan a necesitar como mínimo eran:
•	 “PC con un procesador 386DX o superior (se re-
comienda 486)
•	 4 megabytes (MB) de memoria (se recomiendan
138
8 MB)
•	 Espacio en disco duro necesario normalmente
para actualizarse a Windows 95: 35 a 40 MB.
El requisito real varía, dependiendo de las
características que elija instalar.
•	 Espacio en disco duro necesario normalmente
para instalar Windows 95 en un sistema limpio:
50 a 55 MB. El requisito real varía, dependiendo
de las características que elija instalar.
•	 Una unidad de disco de 3,5 pulgadas de alta den-
sidad (instalación desde diskettes)” (Anónimo,
2011.).
Con todos estos requerimientos llegan a ser un siste-
ma operativo el cual se puede utilizar para diferente4s
propósitos, siendo en lugares de trabajo, en medios de
educación o dentro de los hogares usándose con un
propósito personal; aunque en cierta manera existen
personas las cuales no consideran a W95 como un sis-
tema operativo real es debido a que necesitaba cargar
primero MS-DOS al iniciar haciendo que este no sea
un software totalmente independiente.
Figura 5. Logo Windows 98.
Fuente: (Anónimo, 2011)
Este llego a ser presentado a mediados del año 1998,
eta versión es una diseñada específicamente para el
consumidor y continua basándose inicialmente en el
sistema MS-DOS; para este sistemaoperativo existen
dos versiones, siendo este: el original que salió ini-
cialmente y también la versión 98SE, este último con
mejores características siendo estas, una mejora en el
soporte USB, y el soporte para la lectura de DVD-
ROM, algunos de los requisitos que se llegó a necesi-
tar para este nuevo Software eran:
•	 “Procesador 486 DX2 a 66 MHz o superior  con
16 MB de  memoria RAM  (se recomiendan 24
MB).
•	 Suficiente espacio en el disco duro. La cantidad
de espacio necesario depende del método de ins-
talación elegido y de los componentes que haya
seleccionado.
•	 Actualizando desde Windows 95 o desde 3.1: 140-
315 MB (normalmente 205 MB) de espacio.
•	 Nueva instalación usando el sistema de ficheros
FAT16: 210-400 MB (normalmente 260 MB) de
espacio.
•	 Nueva instalación usando el sistema de ficheros
FAT32: 190-305 MB (normalmente 210 MB) de
espacio.
•	 No soporta instalación en particiones/discos con
el sistema de ficheros NTFS como las versio-
nes Windows NT
•	 NOTA: Ambos, Windows 98 y Windows 98SE,
tienen considerables problemas asociados a discos
duros de un tamaño superior a 32 GB. Se hizo pú-
blica una actualización de software para corregir
esta deficiencia.
•	 Monitor con resolución VGA o superior.
•	 Unidad de CD-ROM.
•	 Microsoft Mouse o un dispositivo apuntador com-
patible.”(Anónimo, 2011).
Como un dato curioso, durante la presentación de este
S.O. por medio de su presidente Bill Gates intento
mostrar la facilidad del programa, y durante la ins-
talación de un escáner, el sistema operativo se colgó
mostrando la pantalla azul.
Años después, en el año 2000 apareció el sistema
Windows con el mismo nombre respectivo al año-
siendo este elaborado con una mayor utilidad para
los administradores en sistemas, este siendo además
un sistema operativo para empresas; de este software
existen cuatro variantes:
•	 Windows 2000 Professional
139
•	 Windows 2000 Server
•	 Windows 2000 Advanced Server
•	 Windows 2000 DatacenterEdition
Ese mismo año, a finales del propio fue lanzado al
mercado el Windows ME siendo un S.O. grafico de
16/62 bits, considerándose como el sucesor de Win
98, este a diferencia del anterior previamente mencio-
nado, son designados mas para un uso casero, además
de que contiene ciertas características graficas de Win
2000.
Para el año 2001 apareció el sistema operativo Win-
dows XP, elnombre de este se pasa en la palabra eX-
Perience o eXPeriencia, este es sistema operativo que
llego a ser más usado, incluso en los días actuales se
continua usando; este llega a ser un sistema con un
ambiente grafico más agradable mayor velocidad y
además de ser mas sencillo en operar; este sistema
operativo recibió diversas actualizaciones denomina-
das más comúnmente como Service pack, siendo en
total 3:
•	 “SERVICE PACK1: 9 de Noviembre de 2002.
•	 SERVICE PACK 2: 6 de Agosto de 2004.
•	 SERVICE PACK 3: 6 de Mayo de 2008.” (Anóni-
mo, 2011).
Posterior a esta última actualización Microsoft pres-
cindió en la elaboración de nuevos Service packs aca-
bando con este último.
Posterior a este salieron otros sistemas operativos,
desde el muy criticado Windows Vista, pasando por el
innovador Windows 7, hasta el más reciente Windows
10, llegando a la interrogante de cómo será los próxi-
mos S.O. que ofrecerá Microsoft y además si lograra
existir en el futuro otra empresa con un sistema ope-
rativo que se muestre como una competencia directa
con el actual sistema operativo más utilizado, pudien-
do ser Linux, Mac u otros; siendo interrogantes que
llegaran a ser contestadas a con el pasar del tiempo.
Figura 6. Logo de Windows antes y ahora
Fuente: (Anónimo, 2011)
2.2. CLASES DE SISTEMAS OPERATIVOS
Respecto a los tipos de sistemas operativos estos se
llegan a clasificar de una manera más directa en los
utilizados para P.C. u ordenadores personales, y los
aparatos móviles. Iniciando con los software de las
computadoras de uso personal, se encuentran prin-
cipalmente Windows, siendo actualmente uno de los
más conocidos a nivel popular, este a estado en fun-
cionamiento desde los ochenta iniciando de manera
oficial con el MS-DOS y posteriormente con la apari-
ción de Windows 1.0 siendo su primer sistema opera-
tivo con una interfazgráfica y no solo con comandos
como su predecesor, actualmente su ultimo software
que llegaron a ofrecer es Windows 10; por otro lado
se encuentra el S.O. de Apple, aparte de los mismos
también existen software de acceso libre también lla-
mativos siendo estos: Linux, el cual apareció basándo-
se en otro sistema operativo actualmente desaparecido
llamado Unix, este gracias a distribuidores como por
ejemplo Ubuntu, mandriva o Linux Mint, este sistema
operativo llego ganar un gran nivel de popularidad;
otros S.O. son Chrome OS: que a pesar de ser parte
de Linux llega a ser lo suficientemente diferente como
para ser considerado como un sistema operativo dife-
rente, este que permite trabajar únicamente con Goo-
gle Chrome;React OS, este siendo un sistema opera-
tivo de código abierto siguiendo diseños basados en
Windows NT, siendo diferente que Linux y Unix; y
Mac OS X, con el cual puedes probar algunos siste-
mas operativos de Mac, antes de llegar a comprar al-
guno.Por el lado de los aparatos móviles, estos llegan
a ser ciertamente otro tipo de sistemas operativos de-
bido a ciertas características de estos aparatos siendo
estos: Android, este siendo un software perteneciente
de Google y siendo uno de los mas conocidos dentro
de este tipo de aparatos móviles, este llega a ser mas
utilizado por los aparatos marca LG, Motorola, BQ,
además que en todos los aparatos celulares de Sam-
sung; iOS, este proviene de la empresa Appley para
este tipo de software llegan a ser utilizadas en los pro-
ductos de la misma empresa siendo estos por ejemplo
los iPhone y los iPad; Sysmbian, siendo un software
140
de la propiedad de Nokia y utilizado exclusivamente
para sus teléfonos, para poder llegar a acceder a este
sistema operativo requiere previamente tener la auto-
rización de Nokia; BlackBerry OS, este proviene de la
propia empresa que fabrica los BlackBerry, utilizados
para los celulares de la misma marca ;Firefox OS, este
proveniente de la Función Mozilla, los cuales son los
r4sponsables del navegador Firefox, este sistema ope-
rativo llega a ser utilizado por empresas tales como
Geeksphone y Alcatel.
Figura 7. Windows Phone
Fuente: (Anónimo, 2011)
Windows Phone, este fue creado por Microsoft y fue
utilizado por diferentes Smartphones de alta gama
de Nokia, sus diseño se basa para ser estéticamente
similar al software de Windows utilizados por la Pc,
teniendo problemas con respecto a las pocas aplica-
ciones que llegan a ser compatibles con el presente
Sistema operativo, pero recientemente el mismo
dejo de producir, esto debido a la muy baja cantidad
de usuarios que utilizan este S.O. siendo que a cau-
sa del mismo varias de las empresas en este merca-
do no tienen pensado el invertir en Windows Phone,
además que llegan a existir muy pocas aplicaciones
que llegan a ser compatibles con este Sistema opera-
tivo lo cual llegó a desanimar a diferentes usuarios
el querer adquirirlo, siendo entre mediados y finales
de año se anunció de manera oficial el retiro del sis-
tema operativo de Windows para aparatos móviles.
3. CONCLUSIONES
Los sistemas operativos son el software clave y fun-
damental para la funcionalidad de manera práctica en
los aparatos tecnológicos de nuestra era, sin ellos el
desarrollo de muchos aparatos tecnológicos y de la
propia informática pudieron llegar a ser negativamen-
te diferentes.
El sistema operativo paso por muchos cambios y de-
sarrollos con el pasar del tiempo, además que también
este llegara a cambiar y desarrollarse a tiempo futuro,
siendo un misterio las limitaciones que este pueda te-
ner.
Hasta nuestra época actual han llegado a existir toda
una variabilidad de sistemas operativos desde unos
muy efectivos, a obsoletos, de software sumamente
conocido o bastante utilizado, a otros no muy reco-
nocidos.
4. REFERENCIA BIBLIOGRÁFICA
Anónimo.(11 de octubre de 2017). retro-informática,
España, Barcelona. Facultad Informàtica de
Barcelona. Recuperado de: https://www.fib.
upc. edu/retro-informatica/ historia/so.html.
Anónimo. (11 de octubre de 2017).areatecnologia.
Recuperado de:http://www.areatecnologia.
com/sistemas-operativos.htm.
Anónimo. (11 de octubre de 2017).areatecnologia.
Recuperado de: http://www.areatecnologia.
com/informatica/sistemas-operativos-movi-
les.html.
Anónimo. (11 de octubre de 2017). histinf.blogs.
Recuperado de: http://histinf.blogs.upv.
es/2011/12/09/el-sistema-operativo-win-
dows-desde-sus-inicios-a-la-actualidad.
Anónimo. (11 de octubre de 2017).histinf.blogs.Recu-
perado de: http://www.youtube.com/watch?-
v=fI9SPjFQgDk&feature=related.
Anónimo. (11 de octubre de 2017). maestrosdelweb.
Recuperado de: http://www.maestrosdelweb.
com/principiantes/historia-de-windows.
Anónimo. (11 de octubre de 2017). Taringa. Re-
cuperado de: http://www.taringa.net/posts/
info/11171050/Evolucion-de-Windows–_to-
dos_.html.
De Juana R.(11 de octubre de 2017).muypy-
mes: tpnet. Recuperado de:https://www.
muypymes.com/2014/06/06/diez-siste-
mas-operativos-alternativos-que-puedes-ins-
talar-en-tu-pc.
Gutiérrez O. (11 de octubre de 2017). cnet. Recupe-
rado de: https://www.cnet.com/es/ noticias/
microsoft-windows-10-windows-phone-cie-
rra.
Pascoe L.(11 de octubre de 2017).infogram. Re-
cuperado de: https://infogram.com/la-his-
toria-de-los-sistemas-operativos-1go-
502yyw8k82jd.
Pérez J.(11 de octubre de 2017).definicion.de. Recu-
perado de: https://definicion.de/ sistema-ope-
rativo.
141
USO DE DEEP LEARNING EN GOOGLE PARA EL DESARROLLO DE LA
INTELIGENCIAARTIFICIAL
López Dávalos Nelson Luis, Quispe Mendoza Rodrigo Ariel, Ramos Mamani Wara Victoria
nelson.lopez.ld@gmail.com, rodrigo.elsinico@gmail.com, waritavicramosmamani752@gmail.com
Universidad Mayor de San Andrés
Carrera de Informática
Gramática Española
RESUMEN
El desarrollo del Deep Learning es un gran salto en
el campo de la Inteligencia artificial debido a que a
partir una base de ejemplos intentan definir nuevos
conceptos y crean modelos para aprender nuevas re-
presentaciones. El avance de la tecnología se ha ido
mostrando muy sorprendente, excepto algunos suce-
sos inesperados; el avance tecnológico que fueron de-
sarrollando, el cual podría significar un gran avance
para la humanidad o tal vez podría no llegar a ser lo
que muchos esperaban.
Palabras Clave: Deep Learning, Inteligencia Artifi-
cial, Red Neuronal, DeepMind, Google.
ABSTRACT
The development of Deep Learning is a great leap in
the field of artificial intelligence because from a base
of examples try to define new concepts and create
models to learn new representations. The advance
of the technology has been showing very surprising,
except for some unexpected events; the technological
advance they were developing, which could mean a
breakthrough for mankind or perhaps might not be-
come what many expected.
Keywords: Deep Leaming, Artificial Intelligence,
neuronal network, DeepMind, Google.
1. INTRODUCCIÓN
El Deep Learning es un sistema de aprendizaje pro-
fundo que se basa en la inteligencia artificial, y que
pretende imitar o emular la estructura de las redes
neuronales que forman en el cerebro interconectadas.
La base de este concepto son operaciones matemáti-
cas que trabajan con las palabras, que dan valor y las
interrelacionan entre sí para llegar a deducir sinóni-
mos. La gran diferencia entre los algoritmos existen-
tes hasta ahora y este nivel de
aprendizaje profundo es que los cambios no los realiza
ninguna persona, sino la misma inteligencia artificial.
En la actualidad los métodos de la inteligencia artifi-
cial (IA) tienen un gran auge y muchos investigado-
res se encuentran estudiando nuevas alternativas en el
área. Hoy en día es común el empleo de sistemas que
utilizan la IA para su funcionamiento de esta siendo
utilizada y tiene buenos resultados un ejemplo es Goo-
gle con sus servicios ya sea recomendaciones de video
de YouTube o reconocimiento de voz.
En el enfoque Deep Learning se usan estructuras ló-
gicas que se especializan en detectar determinadas ca-
racterísticas existentes en los objetos percibidos.
La visión artificial es una de las áreas donde el Deep
Learning proporciona una mejora considerable en
comparación con algoritmos más avanzados.
Los modelos computacionales de Deep Learning imi-
tan estas características arquitecturales del sistema
nervioso, permitiendo que dentro del sistema global
haya redes de unidades de proceso que se especialicen
en la detección de determinadas características ocultas
en los datos.
Este enfoque ha permitido mejores resultados en ta-
reas de percepción computacional, si las comparamos
con las redes monolíticas de neuronas artificiales.
2. DESARROLLO
Uno de los sistemas de aprendizaje automático es Ten-
sorFlow de Google, que es más rápido, inteligente y
flexible que su anterior sistema. Se puede adaptar con
mayor facilidad a nuevos productos y es altamente
escalable. Se puede ejecutar en un solo teléfono in-
teligente o en los miles de ordenadores en los centros
de datos. Además, permite construir redes neuronales
hasta cinco veces más rápidas que el anterior sistema
de primera generación usado por Google.
El sistema de aprendizaje automático TensorFlow está
142
especializado para el reconocimiento de voz, recono-
cimiento de textos y reconocimiento de imágenes.
Figura 1. Tensorflow.
Fuente: (Anónimo, 2017)
Es necesario entender el aprendizaje profundo como
un paso más allá del hasta ahora existente machine
learning, los algoritmos que aprenden de su experien-
cia para sacar conclusiones de manera automática y
poder predecir de manera efectiva los resultados. Él
aprendizaje profundo recoge este concepto y lo acer-
ca al funcionamiento del cerebro humano para crear
las bases de la inteligencia artificial. Partiendo de esta
idea, se crea una jerarquía de conceptos que se rela-
cionan entre sí y con otros, tanto más simples como
abstractos, siempre a partir de los datos originales.
Otra de las diferencias más importantes entre el ma-
chine learning y el aprendizaje profundo es que este
último no entrena al algoritmo para reconocer un con-
cepto, más bien le enseña a analizar y a decidir las pro-
piedades adecuadas para tener en cuenta para llegar a
una respuesta correcta. Esto implica la necesidad de
trabajar con millones de datos que permitan estable-
cer estas correlaciones, lo que no es ningún problema
porque el flujo de datos en Internet está creciendo de
manera exponencial en los últimos años. Cada vez que
lleguen nuevos conceptos y situaciones, el algoritmo
de aprendizaje profundo de Google se irá ampliando
y mejorando.
Por supuesto, todos estos cambios de prioridades y la
nueva preponderancia del usuario hacen que el apren-
dizaje profundo tenga consecuencias importantes en
el SEO (Search Engine Optimization) y, por lo tanto,
en el posicionamiento de una web. Teniendo en cuenta
que esto repercute de manera directa en las ventas, es
evidente su importancia.
Figura 2. Google trata de emular la inteligencia humana.
Fuente: (Osipowa, 2017)
El departamento de Google, encargado de investigar
sobre el ‘Deep learning’ es ‘Google Brain’
Vivimos un momento histórico, no porque las orga-
nizaciones quieran incorporar algo radicalmente nue-
vo, sino porque ahora son conscientes de que existe
tecnología capaz de procesar todos los datos de los
que disponen, hacerlo en escalas de tiempo inferiores
a las humanas e incluso proporcionar la inteligencia
necesaria. Una de las claves de la IA avanzada está en
el aprendizaje.
Es cada vez más habitual que les pidamos a las má-
quinas que aprendan por sí solas. No podemos per-
mitirnos el lujo de pre-programar reglas para lidiar
con las infinitas combinaciones de datos de entrada y
situaciones que aparecen en el mundo real. En vez de
hacer eso, necesitamos que las máquinas sean capaces
de auto-programarse, en otras palabras, queremos má-
quinas que aprendan de su propia experiencia.
La disciplina del Aprendizaje Automático (Machine
Learning) se ocupa de este reto y gracias a la tormenta
perfecta en la que nos acabamos de adentrar todos los
gigantes de Internet han entrado de lleno en el mundo
del aprendizaje automático, ofreciendo servicios en la
nube para construir aplicaciones que aprenden a partir
de los datos que ingieren.
Hoy en día el aprendizaje automático está más que
nunca al alcance de cualquier programador. Para ex-
perimentar con estos servicios tenemos plataformas
como IBM Watson Developer Cloud, Amazon Machi-
ne Learning, Azure Machine Learning, TensorFlow o
BigML.
143
Entender los algoritmos de aprendizaje es fácil si nos
fijamos en cómo aprendemos nosotros mismos desde
niños. El aprendizaje por refuerzo engloba un grupo
de técnicas de aprendizaje automático que a menudo
usamos en los sistemas artificiales. En estos sistemas,
al igual que en los niños, las conductas que se premian
tienden a aumentar su probabilidad de ocurrencia,
mientras que las conductas que se castigan tienden a
desaparecer.
Este tipo de enfoques se denominan aprendizaje su-
pervisado, pues requiere de la intervención de los hu-
manos para indicar qué está bien y qué está mal (es
decir, para proporcional el refuerzo). En muchas otras
aplicaciones de la computación cognitiva los huma-
nos, aparte del refuerzo, también proporcionan par-
te de la semántica necesaria para que los algoritmos
aprendan. Por ejemplo, en el caso de un software que
debe aprender a diferenciar los diferentes tipos de do-
cumentos que recibe una oficina, son los humanos los
que inicialmente han de etiquetar un conjunto signifi-
cativo de ejemplos para que posteriormente la máqui-
na pueda aprender.
Es decir, los humanos son lo que inicialmente saben
realmente si un documento es una queja, una instan-
cia, una reclamación, una solicitud de registro, una
petición de cambio, etc. Una vez que los algoritmos
cuentan con un conjunto de entrenamiento proporcio-
nado por los humanos, entonces son capaces de ge-
neralizar y empezar a clasificar documentos de forma
automática sin intervención humana.
En la actualidad son estas restricciones o limitaciones
de entrenamiento de los algoritmos las que en buena
medida limitan su potencia, pues se requieren buenos
conjuntos de datos de entrenamiento (a menudo, eti-
quetados de forma manual por humanos) para que los
algoritmos aprendan de forma efectiva. En el ámbito
de la visión artificial, para que los algoritmos apren-
dan a detectar objetos en las imágenes de forma au-
tomática han de entrenarse previamente con un buen
conjunto de imágenes etiquetadas, como por ejemplo
Microsoft COCO. Los algoritmos de aprendizaje pro-
fundo han sido empleados para que nuestros móviles
reconozcan nuestra cara –reconocimiento del rostro-,
nuestra voz –reconocimiento de voz- y, lo más recien-
te, nuestra forma de hablar –procesamiento de lengua-
je natural.
En este último caso, no sólo las grandes compañías
están investigando en torno a la nueva aplicación del
‘Deep Learning’. Desde 2005, la empresa españo-
la Inbenta lleva ofreciendo a sus clientes un ‘sof-
tware’ capaz de responder a las dudas de los usua-
rios. Unas preguntas que, normalmente, suelen ser
informales, y cuyo significado varía dependiendo
del contexto.
¿Y cómo hacen eso? “Nos basamos en la teoría del
sentido-texto, y básicamente lo que hace es que no
se basa en la sintaxis, sino en la semántica. Una
frase puede estar sintácticamente correcta, pero
semánticamente no decir nada” (Fernández, 2016),
nos explica David Fernández, director de desarrollo
de Inbenta.
Para crear dicho ‘software’, la empresa tiene en
plantilla a una serie de filólogas encargadas de mos-
trarle a la máquina los significados de las palabras.
El ‘software’lo asimila y crean así lo que Fernández
denomina un “ cerebro semántico”.
“Hay otras empresas que se basan por ejemplo en la
estadística a la hora de enlazar estos documentos o de
entender lo que estás preguntando”, indica el direc-
tor.  Es precisamente lo que hace Google Translate.
“No hay ninguna que conozcamos que haya utilizado
esta teoría”.
El Deep Learning no es la única técnica que se emplea
para que la máquina sea capaz de aprender.
El área a la que pertenecen las redes neuronales pro-
fundas, dentro del campo de la inteligencia artificial,
se corresponde con el aprendizaje automático. Un
aprendizaje que, como bien ha señalado Fernández,
puede conseguirse de múltiples maneras.
Sin embargo,  las mayores funciones  que ofrece el
Deep Learning han hecho que se convierta en la téc-
nica favorita de los gigantes tecnológicos. Pero, ¿y si
resulta, al final, que el aprendizaje profundo es sólo
una moda? Para que una máquina aprenda, ¿necesita
realmente imitar el funcionamiento del cerebro
humano?
Para algunos, la respuesta es un no. En 2012, Google
contrató al célebre investigador Ray Kurzweil para
perseguir varias formas en las que los ordenadores
aprendieran desde la experiencia, empleando el Deep
Learning, además de otras técnicas.
El hecho que a medida que los años pasan, también la
144
tecnología avanza pero esto no significa que no podrá
representar un peligro para la humanidad; tal vez no es
vista así por muchas personas que se dedican a crear
esta tecnología, el área en que se enfocara el presente
artículo será el desarrollo de una gran e innovadora
tecnología la cual es la denominada Inteligencia Arti-
ficial, el cual es un tema que está revolucionando en
la historia, el que nos lleva a la pregunta ¿Cómo un
robot con un sistema de IA podría ser tan similar a los
seres humanos?.
Esa es una pregunta que muchos científicos se han ido
haciendo durante estos años.
Google es quizá la empresa que más apuesta por el
desarrollo de Inteligencia Artificial a través de su má-
quina DeepMind, la que ya nos mostró varios avan-
ces impresionantes, pero este sistema también tiene
su lado oscuro tal como pudieron comprobar en una
reciente prueba.
El Deep Learning utiliza distintas técnicas para desa-
rrollar soluciones que repliquen el proceso de pensa-
miento humano y lo aplique a la resolución de proble-
mas complejos. Para ello, recurre al procesamiento de
enormes volúmenes de datos a través de redes neu-
ronales. Es la tecnología detrás de los sistemas de
reconocimiento facial que ya se están utilizando ac-
tualmente en muchas partes del mundo para tareas tan
diversas como detectar ladrones en tiendas, identificar
conductores y gestionar pagos.
El rostro humano es un ejemplo de la complejidad
de los desafíos que se pueden enfrentar con el Deep
Learning, pero la amplísima variedad de rasgos y ges-
tos que puede producir una persona con los músculos
de su cara ya puede ser ‘leída’ e interpretada por las
máquinas. Científicos del MIT ya han desarrollado al-
goritmos basadas en Deep Learning capaces de antici-
parse a los acontecimientos.
Figura 3. La relación entre maquinas artificiales.
Fuente: (Anónimo, 2017)
DeepMind es capaz de aprender por sí misma y hasta
imitar de forma casi perfecta a los humanos, tanto que
al notar que va perdiendo en un juego se enoja y se
torna violenta, lo que nos hace temer por las reaccio-
nes que podrían tener los robots con IA. La compa-
ñía hizo que dos máquinas con el sistema DeepMind
compitieran en un sencillo e inocente juego en que
debían recoger manzanas desarrollando su propia es-
trategia. A la hora de buscar ganar las DeepMind uti-
lizaban métodos cada vez más agresivos que incluían
el destruir a su oponente de forma violenta. No es que
las computadoras comenzaran a golpearse, pero cuan-
do la tarea de recoger la mayor cantidad de manzanas
posibles se hacía más complicada prefirieron destruir
a su oponente utilizando rayos láser para luego robarle
las frutas que había recolectado.
Una estrategia que le valió la victoria a uno de estos
sistemas de Inteligencia Artificial pero que demuestra
que esta tecnología no tiene reparos a la hora de dejar
de lado el juego limpio y deshacerse de su oponente
de formas moralmente cuestionables. Puede parecer
anecdótico, pero es bastante preocupante si conside-
ramos que cada vez interactuamos directamente con
máquinas que cuentan con Inteligencia Artificial y
que fácilmente podrían decidir que la mejor forma de
proceder sería el dañar o hasta destruir a un humano
violando así la primera ley de la robótica.
Esperamos que la reciente experiencia con DeepMind
de Google cambie la forma en que los expertos en
este tipo de tecnología regulan las interacciones entre
robots y humanos, no vaya a ser que las máquinas
con AI decidan dominar el mundo y esclavizarnos o
simplemente eliminarnos.
Los investigadores e ingenieros de la rama de
Machine Perception de Google han conseguido que la
inteligencia artificial de la compañía tome imágenes
capturadas en Street View (el sistema de imágenes
panorámicas de Google Maps con el que se pueden
explorar muchos países del mundo) y las convierta en
fotografías que parecen tomadas por un profesional.
Aunque dicho así no suena sorprendente, el resultado
en imágenes sí que lo es:
145
Figura 4. Buena edición fotográfica.
Fuente: (elmundo, 2017)
Lo de abajo es la imagen, sacada directamente de
Street View y, lo de arriba, la reinterpretación de una
máquina. La IA de Google asigna ella sola filtros,
retoques fotográficos y reajustes al curvado natural
de una panorámica para crear una imagen nueva y
que pasa por una fotografía hecha con una cámara. Y
esta no es la única foto, pues hay toda una galería de
muestra.
El equipo tras este experimento ha sido capitaneado
por Hui Fang y el objetivo era demostrar que
se puede acortar el arduo trabajo de la edición
fotográfica. Además, con este método se prescinde
por completo de la necesidad de que un operador
humano introduzca qué filtros o iluminación hay que
introducir. Para conseguirlo, sólo hubo que entrenar
a la red neural tras la inteligencia artificial para que
identificara los elementos más destacados en una
foto. El proceso empleado se denominada en inglés
Generative Adversarial Networks, algo así como
“Redes Generativas Adversarias” en español, y su
proceso es sencillo: se enfrenta a dos redes neuronales
y se escoge el resultado en el que coinciden más a
menudo, que supuestamente sería el mejor. Llevado a
este caso, Google hizo que una IA editara fotografías
profesionales, retocando iluminación y otros aspectos,
para que, luego, otra inteligencia identificara cuáles
eran las fotos retocadas y cuáles las originales. Así, e
resultado es un software que entiende las capacidades
de una buena y una mala foto y que, cuando se la pone
a editar, es capaz de mejorar la imagen original.
¿Y cómo comprobaron que las fotografías resultantes
tras todo esto eran buenas? Sometiendo a fotógrafos
profesionales a un test: tenían que identificar qué
fotos eran artificiales y cuáles humanas que estaban
entremezcladas. Como resultado, identificaron dos de
cada cinco fotografías fabricadas por la inteligencia
artificial como profesional y humana. Aunque estas
técnicas aún no son infalibles y, sobre todo, son muy
costosas de ejecutar, Fang y su equipo creen que en
el futuro podrían ayudar a editar fotografías a nivel
profesional sin llevar tanto tiempo. Sea como fuere,
parece que el Deep Learning ha venido para quedarse.
Es posible que dentro de nada nos acostumbremos
a pedirle al móvil que nos programe una cita o nos
haga una foto, a que nuestra cuenta de Facebook reco-
nozca las caras de nuestros amigos o a que en What-
sApp aparezcan mensajes publicitarios relacionados
con las palabras que solemos escribir. O incluso, por
qué no, a tener una conversación con nuestro sistema
operativo (al más puro estilo ‹Her›). Y todo ello
gracias al progreso de la inteligencia artificial. Al final
va a resultar que los robots no son tan malos como los
pintan en el cine.
3. CONCLUSIONES
Los grandes avances que ha tenido esta tecnología ha
sido un beneficio para gran parte de nosotros y que to-
davía promete más gracias a compañías como Google
que invierten en nuevas formas de procesar nuestra
información y haciéndola más accesible y manejable
desde una simple instrucción de voz a reconocimiento
de caras, manejo de autos etc.
Lo que podemos concluir de esto es que es un gran
beneficio para la humanidad, pero a la ves un poco de
(términos vulgares) vagancia porque para las perso-
nas que sepan usar bien, utilizar al máximo esta nueva
propuesta se podrá notar un gran crecimiento en la hu-
manidad, pero en cambio en otras personas solo será
perjudicial porque gracias a esas personas el país done
estén estará decayendo más y más.
Para finalizar se sabe bien que el avance de la tecnolo-
gía no lo frenara nada ni nadie, pero también debemos
estar conscientes que por muy bueno que parezca todo
esto siempre va a ver una probabilidad de riesgo el
cual se pudo analizar en un experimento de Google,
sea como sea debemos e4star atentos a los últimos
avances tecnológicos sea de cualquier parte del mun-
do que venga porque al final de todo somos una mis-
ma raza que tal vez por esta tecnología podría verse
amansada o podría beneficiarse.
146
4. REFERENCIAS BIBLIOGRAFICAS
Anónimo. (2017).La inteligencia artificial de Goo-
gle edita fotos como un profesional. Re-
cuperado de : http://www.elmundo.es/
tecnologia/2017/07/19/596e1bfaca-
47412c328b4637.html
Anónimo. (2015).TensorFlow, el aprendizaje automá-
tico Open Source que hace inteligentes a los
productos de Google. Recuperado de: https://
www.xatakandroid.com/mercado/tensor-
flow-el-aprendizaje-automatico-open-sour-
ce-que-hacen-inteligentes-a-los-servi-
cios-de-google
Anónimo. (2017).30 amazing applications of deep
learning. Recuperado de : http://www.ya-
ronhadad.com/deep-learning-most-ama-
zing-applications/
Anonimo. (2017).Soluciones de Inteligencia Arti-
ficial en Google Cloud. Recuperado de :
http://pervasive-tech.com/pervasive-tech-
nologies-partner-google-inteligencia-artifi-
cial-machine-learning/
Arrabales, R. (2016). Deep Learning: qué es y por
qué va a ser una tecnología clave en el futuro
de la inteligencia artificial. Recuperado de:
https://www.xataka.com/robotica-e-ia/deep-
learning-que-es-y-por-que-va-a-ser-una-tec-
nologia-clave-en-el-futuro-de-la-inteligen-
cia-artificial
Chacón,P. (2014).El ‘deep learning’ está de moda:
así hacen Google, Apple y Facebook que
los ordenadores ‘piensen’ como humanos.
Recuperado de: http://www.eldiario.es/ho-
jaderouter/tecnologia/software/moda-deep_
learning-algoritmo-inteligencia_artifi-
cial_0_275772610.html
Farrero,D. (2017). DeepMind de Google desarro-
lla IA con imaginación. Recuperado de :
https://www.mediatrends.es/a/128430/
deepmind-google-desarrolla-inteligen-
cia-artificial-ia-imaginacion/ Brownlee,J.
(2016). 8 Inspirational Applications of Deep
Learning. Recuperado de : https://machine-
learningmastery.com/inspirational-applica-
tions-deep-learning/
.Murphy,J. (2016). Deep Learning Applications in
Science and Engineering. Recuperado de :
https://www.microway.com/hpc-tech-tips/
deep-learning-applications/.
Navarro,C. (2017). Deep learning: la nueva era de la
inteligencia artificial. Recuperado de : https://
blogs.sas.com/content/sasla/2017/10/17/
deep-learning-la-nueva-era-de-la-inteligen-
cia-artificial/.
Pastor,J. (2014). Google adquiere DeepMind Tech-
nologies, una empresa especializada en IA.
Recupearado de : https://www.xataka.com/
robotica-e-ia/google-adquiere-deepmind-te-
chnologies-una-empresa-especializada-en-ia
Sacchi,A. (2017). Inteligencia Artificial, Machi-
ne Learning y Deep Learning: Qué son
y cómo están cambiando los negocios y
la sociedad. Recuperado de : http://blog.
xertica.com/2017/09/19/inteligencia-ar-
tificial-machine-learning-y-deep-lear-
ning-que-son-y-como-estan-cambian-
do-los-negocios-y-la-sociedad/.
Vega, G. ( 2017). Inteligencia artificial Aprendi-
zaje profundo o el peligro de no saber cómo
piensa una máquina. Recupeado de : https://
retina.elpais.com/retina/2017/04/14/tenden-
cias/1492164762_707652.html
Valensuela,I. (S.F.). El sistema de Inteligencia Ar-
tificial de Google mostró su lado oscuro.
Recuperado de : https://www.vix.com/es/
tecnologia/176591/el-sistema-de-inteligen-
cia-artificial-de-google-mostro-su-lado-os-
curo
Revista 4
Revista 4

Revista 4

  • 3.
  • 4.
    Revista Investigación yCiencia Primera Edición Número 4 Año 2017 DERECHOS RESERVADOS © 2017 Depósito Legal: 4-3-46-16 e-mail:willy.portugal@gmail.com revistainvestigacionyciencia.blogspot.com Impresión Propia La Paz - Bolivia
  • 5.
    Director y/o responsable: M.Sc. Portugal Durán Willy Ernesto e-mail:willy.portugal@gmail.com Editora y/o responsable: M. Sc. Rios Miranda Bhylenia Yhasmyna e-mail:bhylenia.rios@gmail.com Revisión y Edición: Aduviri Loayza Carla Lopez Davalos Nelson Luis ApazaVillca Sergio Juan Loza López Luis Beltrán Arteaga Gutierrez Diego Alejandro Mamani Sosa Jorge Luis Aruquipa Chavez Job Israel Martinez Mamani Reyna Rebeca Callizaya Perez Maria Jose Martinez Quispe Elvis Cansay Choque Nelson Daniel Quispe Chambi Cristhian Manuel Carrion Choque Nelson Enrique Quispe Matta Nora Lizeth Choque Callizaya Gabriel Alejandro Ramos Jimenez Brayan Ronald Choque Condori Luis Cesar Ramos Mamani Wara Victoria Choque Cruz Ivan Alcides Ramos Ruiz Roger Gabriel Chuquimia Condori Luis Rodrigo Ramos Suntura Javier Oliver Condori Quispe Miguel Angel Salcedo Perez Edwin Diego Cruz Quino Samuel Benjamin Santander Silva Lucero Belen Fernandez Macias Fernando Velasques Laura Franz Lider Hidalgo Quispe Vladimir Wilson Villanueva Chuquimia Kevin Gary Limachi Guillen Marcos Josue Zamora Mita Lizeth Limachi Tapia Guillermo Diagramación: Diseño de la tapa: Condori Chavez Eynar Mamani Apaza Luis Grover
  • 7.
    Agradecimientos Se agradece laparticipación y aporte de todos los estudiantes que participaron en la revista con sus artículos de investigación, revisión, edición, impresión, diseño y diagramación para que esta cuarta revista sea publicada.
  • 9.
    Prólogo La Revista “Investigacióny Ciencia” es una publicación editada y publicada por los docentes y estudiantes del primer semestre de la carrera de Informática de la materia de “Gramática Española”, en la cual participaron todos los paralelos de la materia y está dirigida a todas las personas que realizan investigaciones. El principal objetivo de la revista es incentivar a los estudiantes a que realicen investigación y posteriormente realicen una redacción de una investigación científica en forma de artículo aplicando normas APA y de esta manera sea una base para la realización de su vida académica en cada estudiante. La revista presenta una gama de artículos de investigación escrito por los estudiantes y cuyo interés está en función a los objetivos de la carrera dentro de las áreas que tiene la Ciencias de la Computación. El desafío que plantea la materia a los estudiantes es escribir un artículo científico inédito aplicando normas internacionales y reglas gramaticales, después del proceso de revisión, eliminación y clasificación lograr publicar su artículo en la revista de escrita y/o digital para poder llegar a mayores lectores nacionales o internacionales y de tal manera alimentar el conocimiento científico de la sociedad y más que todo a nuestra universidad. Las palabras que llegan hasta nosotros a través de los diferentes escritos contienen un pozo de sabiduría acumulada y constituyen la mejor parte de nuestra gran experiencia cultural. Esto ocurre cuando el ser humano busca la provisión del lenguaje para tener un aprendizaje de las palabras abandonamos la naturaleza e ingresamos en el universo de la cultura. Portugal Durán Willy Ernesto Rios Miranda Bhylenia Yhasmyna
  • 11.
    CONTENIDO ALGORITMO EVOLUTIVO PARAEL JUEGO CUATRO EN RAYA (pp. 1-6) Portugal Durán Willy Ernesto, Rios Miranda Bhylenia Yhasmyna RESUMEN: Los algoritmos genéticos y la computación evolutiva han sido aplicados a los juegos de estrategia en cual fueron totalmente implementados como se observa en el presente artículo con el juego cuatro en raya. ALGORITMOS TIPO HASH (MD5-SHA512) (pp. 7-12) Villavicencio Jhonny, Condori Ali Pierre, Cruz Quino Benjamin RESUMEN: En la actualidad existe dos métodos de encriptación más usados es el MD5 (Message-Digest Algorithm 5, Algoritmo de Resumen del Mensaje 5) y el algoritmo SHA-1 (Secure Hash Algorithm, Algoritmo de  Hash  Seguro), MD5 perdió la confiabilidad de los usuarios debido a que resulto no ser tan segura en sustitución de esta se aplicó el SHA-1, el cual contribuye más confiablidad a la información pública, privada de los usuarios. ANDROID OREO VERSIÓN 8.0 (pp. 13-18) Quino Terán Obed, Quispe Paco Marcos, Suxo Gandarillas Wilmer Rodrigo RESUMEN: La última versión deAndroid presentada oficialmente por los desarrolladores de Google el 21 de agosto de 2017 llamada Oreo debido a las famosas galletas Oreo tiene interesantes novedades las cuales tenemos entendido que son 27 en total, en el presente artículo presentaremos las características que nos parezca principales o más interesantes, estas novedades no las podemos criticar todavía su desempeño en los diferentes dispositivos más conocidos ya que las actualizaciones tardaran un poco en llegar, depende de los fabricantes de cada compañía, entonces por esa razón también presentaremos mediante una tabla los dispositivos confirmados para la actualización a la última versión. APLICACION DE IMÁGENES 2D, 3D Y HOLOGRAMAS EN CAMPOS DEL CONOCIMIENTO (pp. 19-24) Alvaro L. Muruchi, Edison Clavijo, Leandro Góngora RESUMEN: La Computación Gráfica nace con SAGE, en 1955 la cual es una máquina que se creó durante la Guerra Fría por el ejército de los Estados Unidos para rastrear a las naves aéreas. Hoy es una rama de la ciencia de la computación, que estudia al conjunto de técnicas que nos permiten la representación de los objetos mediante el uso de computadoras y a su vez herramientas o aplicaciones que se relacionan con el campo de la geometría, la térmica, la óptica, etc. La computación gráfica también comprende una gran variedad de técnicas que pueden ser agrupadas de acuerdo al número de dimensiones que se utilizan en la representación del modelo grafico a visualizar, ya que este puede ser en 2D, 3D y también un Holograma. Las imágenes bidimensionales y tridimensionales ayudan a proporcionar escenas vivas y naturales como si los ambientes de la simulación realmente existieran, haciéndose herramientas valiosas para muchas aplicaciones como la visualización médica, investigación científica, entretenimiento, arquitectura, anuncios publicitarios, computación tridimensional, sistemas de realidad virtual, área industrial y militar entre otros.
  • 12.
    BIOIMPRESIÓN 3D: LOQUE HAY Y LO QUE VENDRÁ (pp. 25-30) Choque Callizaya Gabriel Alejandro, Javieri Vino Douglas Cristhian, Villegas Yujra Pablo RESUMEN: La inteligencia artificial ha sido creada para diseñar maquinas inteligentes, chips artificiales que son el cerebro de la máquina, el que logra que piense y hablen por si solos, La tecnología hoy en día tiene que estar más atenta en las innovaciones que el ser humano logra y más en el campo de la medicina, un equipo experto liderados por Anthony Átala lograron imprimir órganos humanos gracias a la impresora 3D, sin duda es una innovación tecnológica que esta revolucionado el mundo entero. El implante de órganos y prótesis avanzadas hoy puede ser más fácil de conseguirlas gracias las impresiones humanas, algo que podría cambiar el mundo y sin duda cambiar las vidas de muchas personas, un gran aporte al mundo de la tecnología y de la medicina. COMPUTADORAS CUÁNTICAS UNA PROMESA DE LA TECNOLOGÍA INFORMÁTICA (pp. 31-34) Condori Chávez Eynar, Martínez Quispe Elvis, Choque Condori Luis RESUMEN: Las computadoras cuánticas prometen revolucionar la tecnología informática, empleando la mecánica cuántica para procesar y resolver problemas millones de veces más rápido que los dispositivos actuales. Una misma tarea puede tener diferente complejidad, en computación clásica y en computación cuántica, ya que problemas intratables pasan a ser tratables, mientras que una computadora clásica equivale a una máquina de Turing. DESENCRIPTACION DE CANALES SATELITALES (pp. 35-40) Apaza Villca Sergio Juan, Choque Ticona Caleb, Villalobos Quispe Henry Jordan RESUMEN: La liberación de canales por medio de IKS es una forma de ver canales de televisión satelitales, esto sin representar ningún costo por adquirir este servicio, es decir este servicio es de forma gratuita, ya que como se mencionó que el servicio es gratuito el único costo que se debe realizar es el de adquirir los equipos necesarios para realizar este fin, la liberación de estos canales se pueden obtener por diferentes medios como ser el sistema SKS, siendo este método el menos utilizado ya sea por empresas que brindan este servicio o por un usuario aficionado al mundo de las telecomunicaciones, siendo un método antiguo por el hecho de que necesitaría hardware adicional sin mencionar que este método a día de hoy no resulta ser tan eficaz. Siendo el sistema IKS como algún tipo de llave electrónica que nos permite la liberación de canales satelitales, a diferencia del sistema SKS este a día de hoy sigue siendo un sistema eficaz y estable, esto dependiendo de los desarrolladores de los Decodificadores en caso de optar por tener “Cable pirata” ya que las grandes empresas que se encargan de brindar este servicio son más estables ya que no corren el riesgo de cerrar sus servidores que generan las llaves electrónicas, siendo estas por medio de tarjetas. Es por esto que para un usuario sin ningún conocimiento sobre este mundo y desea optar por este método de liberación de canales solo necesita de su parte contar con una conexión a Internet, indispensablemente debe ser por medio del WiFi, siendo el WiFi el único medio con que se puede acceder a este método. DISEÑO DE CIRCUITOS LÓGICOS COMBINATORIOS MEDIANTE ALGORITMOS GENÉTICOS (pp. 41-46) Copa Mita Luis Fernando, Furuya Valdivia Grace RESUMEN: El comportamiento de los circuitos combinacionales sólo depende de las señales de entrada en un instante determinado, y no de la secuencia de entradas, es decir, de la historia del circuito. Este hecho no quiere decir que el comportamiento temporal no sea importante, de hecho una de las principales características de los circuitos que se tienen en cuenta es la velocidad de operación o el retraso de propagación, todos los métodos nos ayudan a simplificar los circuitos y la complejidad de estos utilizando mapas de Karnaught también usando el método
  • 13.
    Quine-McCluskey para lasolución de estos. Además Java surge por la necesidad de contar con un lenguaje de programación que fuera independiente de la plataforma, permitiendo generar software para diversos dispositivos electrónicos. La Word Wide Web hace que java se convierta en el lenguaje de programación más importante para el desarrollo de software para la internet, ya que la web demanda programas portables. EL DESPLAZAMIENTO DE LA CAPACIDAD DE PENSAMIENTO HUMANO (pp. 47-51) Escobar Mamani Jason Maximiliano, Mamani Ticona Yecid Israel, Quispe Matta Nora Lizeth RESUMEN: Lo que en un tiempo pasado se creía ciencia ficción hoy es una realidad, la idea de una inteligencia artificial capaz de imitar el comportamiento neurológico de un ser humano; es necesario notar que al igual que la historia evolutiva de las computadoras, la inteligencia artificial, así como en otras ramas de la tecnología, en la actualidad también ha logrado un gran avance al punto de una realidad que ya se imaginaba como ficción. Si bien en un tiempo pasado se tenía la visión de realizar grandes avances tecnológicos con el fin de ayudar en al desarrollo humano, se vio como necesidad la idea de reducir el tiempo de razonamiento del ser humano lo que se creía que sería un gran avance para mejorar el aprendizaje del ser humano hoy en día quizá resulte ser como un arma de doble filo, capaz de beneficiar o perjudicar en el desarrollo cerebral cognitivo del ser humano. ELECTRÓNICA, DISEÑO, DESARROLLO, Y FABRICACIÓN DE DISPOSITIVOS PORTABLES EN LA TECNOLOGÍA WEARABLE (pp. 52-55) Limachi Tapia Guillermo, Mamani Sosa Jorge Luis, Claros Choquemisa Cesar Raymundo RESUMEN: El término “Wearable” es una palabra de significado literal “Portable o Ponible”. La mayor referencia es hacia el conjunto de aparatos y dispositivos electrónicos que se incorporan en alguna parte de nuestro cuerpo interactuando de forma continua con el usuario y con otros dispositivos con la finalidad de realizar alguna función concreta Así la tecnología Wearable es integrante de la rama de la electrónica que está diseñada para ser vestida, bien puede ser llevada en una prenda de vestir o en un dispositivo aleatorio con un propósito y funcionalidad diferente de los objetos que siempre están a nuestro entorno. El desarrollo Wearable es directamente dedicada a la electrónica de consumo, es aquel dispositivo electrónico que se lleva sobre, debajo o incluido en la ropa relacionado con “El Sistema de Internet de las Cosas”, que se refiere a la interconexión digital de objetos cotidianos relacionados con internet, el termino de internet de las cosas se considera una parte de una red de objetos tangibles relacionados con la electrónica, software, sensores y la conectividad que permite la comunicación entre otros dispositivos con el usuario sin la intervención humana. La característica más importante de la Tecnología Wearable es su aplicación en tiempo real, y la capacidad de conectividad inalámbrica, en los diferentes dispositivos los cuales nos permiten ingresar diferentes tipos de información que serán almacenados en la memoria local, lo cual hará de cada dispositivo único para el portador. EL MUNDO DE LAS REDES DE COMPUTADORAS: CARACTERISTICAS Y TIPOLOGÍA DE RED (pp. 56-62) Larico Quisbert Cristhian Alejandro, Meneces Zelaya David Josue RESUMEN: Uno de los mayores avances dentro de la ciencia de la computación son las redes computacionales. Las redes de computadora, también llamada red de ordenadores o red informática, es un conjunto de equipos u ordenadores interconectados atreves de un enlace físico (alambrado) o inalámbrico (señales, ondas o cualquier otro método de trasporte de datos), la cual nos permite por sus características el compartir información tales como archivos, recursos y otros, también nos permite entablar comunicación con otros usuarios.
  • 14.
    EL OJO DEHALCON Y EL SISTEMA VAR EN FUTBOL (pp. 63-68) Luis David Ajhuacho Tarquino, Vladimir Wilson Hidalgo Quispe, Jorge Luis Cori Sirpa RESUMEN: El ojo de halcón (Hawk-Eye) está compuesto por una red de cámaras de alta resolución situadas en diversos puntos del estadio que siguen la trayectoria del balón en todo momento, todos los datos que va recogiendo el sistema son analizados desde una base de datos que envía una señal al reloj inteligente del árbitro cuando el balón ha sobrepasado la línea de gol. La señal tarda aproximadamente un segundo en enviarse al árbitro. El sistema VAR en una asistencia por video donde el arbitro verifica si el balón en cuyo caso pasara la línea y marcara si fuera gol o si estuviera fuera del área correspondiente es una pequeña ayuda para facilitar el trabajo y volver el futbol mas transparente si goles fantasmaso fuera d líneas q no correspondan hay acciones en contra de un juego limpio y sin polémica. HACKEO: UN ARMA DE DOBLE FILO (pp. 69-73) Arteaga Gutierrez Diego Alejandro RESUMEN: Como criaturas racionables, los humanos siempre hemos buscado facilitar nuestro trabajo a través del tiempo. Lo que nos ha llevado, de crear la rueda, a los grandes avances tecnológicos de hoy. Gracias al fácil acceso al internet junto con esa comodidad que tenemos, podemos llegar a colgar información en la red que no siempre está protegida contra otros individuos .Los cuales pueden usar nuestra información personal a su antojo sin nuestro consentimiento. Saber cómo evitar ser víctima de un hacker es algo que nos podría ayudar a evitar eventos bastante desagradables. INTELIGENCIA ARTIFICIAL, ¿CÓMO AFECTARÁ EN NUESTRAS VIDAS? (pp. 74-79) Cruz Choque Ivan Limbert, Murguía Cazón Alvaro Marcelo, Veizaga Blanco Cristhian Freddy RESUMEN: El avance de la inteligencia artificial dio pie a una nueva era y a la creación de nuevos productos capaces de imitar el comportamiento humano nos muestra un futuro en el cual podríamos automatizar por completo las actividades hechas por humanos. La inteligencia artificial en la última década y los grandes avances de esta han tenido un impacto masivo en la forma de realizar nuestras actividades diarias, ya sea en diferentes aplicaciones de reconocimiento de voz, reconocimiento facial, en el motor de búsqueda de google, y es fundamental en dispositivos electrónicos actuales o en programas como la navegación por GPS y videojuegos. La inteligencia artificial, aunque en ocasiones no nos percatamos, hace posible todo esto, sin embargo es innegable que esto afectó a nuestros hábitos y la manera en la que manejamos distintas tareas pero ¿Qué podemos esperar de esta en un futuro no muy lejano?. INTELIGENCIAARTIFICIAL EN LOS VIDEOJUEGOS (pp. 80-84) Aguilar Catari Jorge Pablo, Carrion Choque Nelson RESUMEN: La inteligencia artificial o IA es uno de los puntos más importantes a la hora de estudiar y criticar un videojuego y mientras que hay unos grandes avances en los últimos años parece que se ha llegado a un tope y la inteligencia de nuestros aliados y enemigos virtuales se ha estancado. Ya que tenemos las mismas inteligencias artificial casi sin modificaciones. ¿Qué depara el futuro? La inteligencia artificial es un campo de la informática cuyos avances son cada día más rápidos y profundos. ¿Cómo se podría aplicar esta apasionante tecnología al desarrollo de videojuegos? La respuesta a este interrogante aún nos queda bastante lejos, pero, usando un poco la imaginación, podremos hacernos una idea de cómo será el futuro. Una idea quizá irreal y fantasiosa, pero, definitivamente, muy interesante y sugerente.
  • 15.
    INTELIGENCIAARTIFICIAL EN LOSVIDEOJUEGOS DE ESTRATEGIA (pp. 85- 90) Elías Quispe Álvaro Edson, Loza López Luis Beltrán, Medrano Kantuta Christian Daniel RESUMEN: El papel de la Inteligencia Artificial en los videojuegos nos hace referencia a las técnicas utilizadas en distintas computadoras y videojuegos para producir la ilusión de inteligencia en el comportamiento de los personajes que no jugadores (PNJ). En los últimos años los videojuegos evolucionaron notablemente y con ello las compañías de videojuegos que poco apostaron por incluir la inteligencia artificial en sus juegos. Por ello en este artículo presentaremos la historia de la inteligencia artificial en los videojuegos de estrategia y finalmente mostraremos Videojuegos que han realizado un trabajo notable en este aspecto, así como el porvenir de la inteligencia artificial en este sector. INTERACCION HUMANO-COMPUTADORA (IHC) (pp. 91-96) Luis Fernando Bautista Mollo, Daniel Velarde Quispe RESUMEN: El presente trabajo tiene por finalidad mostrar la visión del ser humano con la computadora, de qué manera se formó una interacción entre ambas, la actualización de la computadora ha llevado al ser humano a crear nuevas perspectivas de importancia para una mejor interacción con las máquinas, ya pasó casi un siglo de interacción humano-computadora y no se ha podido conjeturar un concepto valido. Actualmente la mayoría de los sistemas de información utilizan las interfaces graficas conocidas ampliamente como interfaces graficas de usuario las cuales se basan en el manejo de imágenes y objetos gráficos como iconos, ventanas y menús. Sin embargo, existen aplicaciones que requieren el desarrollo elaborado de interfaces que permitan que las tareas del usuario puedan llevarse a cabo con éxito. LAS REDES SOCIALES, EL MAL USO DE LA INFORMACIÓN Y SUS CONSECUENCIAS (pp. 97-102) Aramayo Aranibar Daniela Andrea, Rios Acuña Ivan Rodrigo, Roca Cruz Ronaldo Renzo RESUMEN: En la actualidad las redes sociales llegaron a ser una parte importante en la vida de las personas ya que nos permite mantenernos comunicados con cualquier persona. Una herramienta como esta solo se creería que trae cosas buenas. Sin embargo, por muy buena que esta parezca, la moneda tiene otra cara ya que, unas cuantas personas no le dan el uso adecuado a esta tal útil herramienta, nadie puede estar excluido ya que sean parientes o conocidos todos conocen a alguien que usa mal esta herramienta. Entre las principales desventajas que tienen son: el gran tiempo que consumen, al ser casi anónimo traería varias clases de abusos malintencionados, aparte de dañar la gramática. Pero para poder determinar las desventajas de las redes sociales antes hay que entender bien puntualmente lo que esta significa El concepto de red Social hace referencia a una estructura o forma de interacción social que involucra a un conjunto de personas relacionadas por alguna similitud. En lo siguiente de este artículo se mostrará de manera más específica algunas de las formas en las cuales se llega al mal uso de las redes sociales, creando así una desventaja de las mismas. LA ROBÓTICA REVOLUCIONANDO AL MUNDO O LA HUMANIDAD REVOLUCIONANDO AL MUNDO (pp. 103-108) Alarcon Aruquipa Andony Renan, Condori Quispe Miguel Angel
  • 16.
    RESUMEN: Con el pasarde los años la ciencia que estudia la robótica ha ido evolucionando junto a la humanidad, la historia relata que desde tiempos que no creeríamos los robots han sido una idea no impulsada, en la era contemporánea debido a la revolución industrial, nos dimos cuenta que era necesario una ayuda extra a la mano humana, debido a este pensamiento la automatización de tareas del hombre la robótica y sus funciones se han desarrollado a niveles increíbles, a esta ciencia se le suman sus ventajas y desventajas que dan que pensar a nuestras generaciones, ya que no solamente está en juego nuestro futuro si no el de nuestros sucesores. LA ROBOTICA UNAALTERNATIVAA LAS LIMITACIONES HUMANAS (pp. 109- 113) Gutierrez Condori Ruben Severo, Jira Ramos Jasmanny, Osco Gutierrez Ronald Charli RESUMEN: En el artículo se presenta el análisis de la implementación de la robótica en diferentes ámbitos como ser para la educación la salud para esto se realiza la construcción de robots para diferentes ámbitos como mencionamos anteriormente y el otro ámbito seria la utilización de la robótica como un medio que motiva y da un poco más de sentido a la investigación y construcción de robots en diferentes áreas, en el campo de la medicina podemos mencionar que trata con más detalle la prótesis que usan las personas cuando perdieron alguna parte de su cuerpo que sea reemplazable, en todo este tiempo se ha proporcionado al ser humano extremidades completamente enteras que cada día la ciencia se va perfeccionando ya que la ciencia nunca se detendrá y en el área de la educación en el de fomentar a los niños el interés por la ciencia es por eso que se mostrara los detalles fabulosos que nos da la ciencia y lo grandioso que puede ser la investigación. MECÁNICA COMPUTACIONAL EN LA MEDICINA VETERINARIA (pp. 114-119) Pomacosi Quispe Richard, Rojas Medina Eddy Dorian, Huaranca Antiñapa Juan Carlos RESUMEN: La mecánica computacional intenta de predecir la mecánica de los seres vivos, por lo tanto nos ayuda a entender el motor de los organismos, caracterizar el comportamiento de los tejidos y órganos y prevenir de esta manera métodos para la intervención artificial, por medio de la simulación computacional que modela los procesos de respuesta de las células tejidos y órganos ante estímulos externos e internos, mediante un modelo matemático del comportamiento que se basa en reglas o patrones que se siguen, muchas veces basadas en la metodología de prueba y error. En el presente trabajo se lleva a cabo una revisión bibliográfica sobre esta nueva área de conocimiento en la teoría biológica y computacional, para la predicción del comportamiento de los tejidos vivos. MÉTODOS DE ENCRIPTACIÓN PARA REDES PRIVADAS VIRTUALES (pp. 120- 125) Casas Ninachoque José Eduardo, Laura Mamani Juan Guillermo, Ramirez Castro Sergio Daniel RESUMEN: La conexión remota a la red corporativa se ha convertido en una necesidad para las empresas de hoy en día. El aumento del teletrabajo o los desplazamientos de personal, obligan a establecer sistemas de conexión con la red corporativa para, de esa manera, poder acceder a sus recursos. Uno de los sistemas más extendidos para comunicarse de forma remota con una red es a través de conexiones VPN. Sin embargo, una conexión VPN es también un punto crítico de entrada de todo tipo de ataque. A través de una VPN cualquier tipo de ataque puede entrar directamente en los servidores de la empresa. El problema se trata en verificar la seguridad del equipo que se está conectando de forma remota y las políticas de seguridad adecuadas para que la información no quede expuesta a posibles ataques y para esto la implementación de métodos de encriptación es esencial.
  • 17.
    SEGURIDAD INFORMÁTICA ENENTIDADES FINANCIERAS (pp. 126-134) Santander Silva Lucero Belén, Bonilla Aruquipa Saúl Yerko, Quisbert Mújica Albert Jhonatan, RESUMEN: En este artículo se presenta el problema de la inseguridad informática en entidades financieras, frente a la vulnerabilidad de la información financiera y de los usuarios ante las diferentes técnicas de hacking que se conocen y otras que aún no se conocen. Se menciona los conceptos de entidades financieras, de hacking y las diferentes técnicas de hacking, sus definiciones y como poder evitar que estos puedan vulnerar nuestra información. También se toma en cuenta los riesgos y análisis de estos riesgos desde la probabilidad que dicha amenaza ocurra. Como también se hará conocer como poder evitar los ataques por hacking. SISTEMAS OPERATIVOS, EL SOFTWARE BASE DE LA COMPUTADORA (pp. 135-140) Salcedo Ayala Luis Rubén, Enríquez Donaire Carlos Alejandro, Apaza Quiroz Oscar RESUMEN: El sistema operativo es un software con el cual llega a funcionar en gran medida un ordenador, siendo este el que se encarga respecto al gestionamiento , organización y administración de todos los recursos y elementos del ordenador, en el cual se relacionan los elementos físicos (Hardware) junto con los elementos simbólicos o no tangibles. Estos programas principales derivan su inicio desde varias décadas atrás, iniciando alrededor de los años sesenta, a partir de este tiempo los sistemas operativos fueros desarrollando de maneras continua y adaptándose más con respecto a las creaciones y apariciones de nuevos elementos en el área de informática, relacionándose con los mismos y ampliando la calidad, las opciones, características, etc. Que llega a ofrecer el ordenador dentro de su época. Con el pasar de los años han llega a existir toda una variedad de opciones respecto al sistema operativo en estos destacando a gran medida, Windows por el lado de los ordenadores personales y Android, siendo este conocido en los aparatos móviles; además de estos dos, también existen una variabilidad de estos software según su época y además de lo conocidos que estos llega a ser. USO DE DEEP LEARNING EN GOOGLE PARA EL DESARROLLO DE LA INTELIGENCIAARTIFICIAL (pp. 141-146) López Dávalos Nelson Luis, Quispe Mendoza Rodrigo Ariel, Ramos Mamani Wara Victoria RESUMEN: El desarrollo del Deep Learning es un gran salto en el campo de la Inteligencia artificial debido a que a partir una base de ejemplos intentan definir nuevos conceptos y crean modelos para aprender nuevas representaciones. El avance de la tecnología se ha ido mostrando muy sorprendente, excepto algunos sucesos inesperados; el avance tecnológico que fueron desarrollando, el cual podría significar un gran avance para la humanidad o tal vez podría no llegar a ser lo que muchos esperaban.
  • 18.
    1 ALGORITMO EVOLUTIVO PARAEL JUEGO CUATRO EN RAYA Portugal Durán Willy Ernesto, Rios Miranda Bhylenia Yhasmyna pwilly_ernesto@hotmail.com, bhylenia@hotmail.com Universidad Mayor de San Andrés Carrera de Informática Gramática Española RESUMEN Los algoritmos genéticos y la computación evolutiva han sido aplicados a los juegos de estrategia en cual fueron totalmente implementados como se observa en el presente artículo con el juego cuatro en raya. Palabras clave: Juego, juego de estrategia, Inteligencia artificial, algoritmo genético. ABSTRACT Genetic algorithms and evolutionary computation have been applied to the strategy games in which they were fully implemented as observed in the present article with the game four in a row. Keywords: Game, strategy game, artificial intelligence, genetic algorithm. 1. INTRODUCCIÓN. Los juegos de estrategia en cierta manera están creados para tener diferentes tipos de alternativas de solución, en las que matemáticamente son diseñadas a través de diferentes algoritmos que con la programación resulta ser una manera de solucionar diferentes tipos de alternativas que miden la inteligencia y las habilidades de un jugador. Cada algoritmo resulta ser un conjunto de pasos organizados de describe una serie de procesos que buscan llegara a una solución. Los algoritmos genéticos es una técnica de programación que imita a la evolución biológica para resolver problemas. El proceso en un algoritmo genético es un conjunto de soluciones a resolver un problema que son codificadas. Cada algoritmo genético es una función matemática o una rutina de software. Esta técnica en lo formal son métodos adaptativos que pueden usarse para resolver problemas de búsqueda y optimización.  2. METODOLOGÍA Juegos de estrategia son los juegos  donde se mide la  inteligencia, habilidades técnicas, planificación para que el jugador llegue a la victoria. La estrategia en un juego es un plan de acción en cualquier situación que determina la conducta del jugador y cada jugada está caracterizada por movimientos que en cierta manera esta influencia por una descripción matemática de una conducta que tiene relación con la programación y los algoritmos. Un movimiento es una acción que toma un jugador en un determinado momento en el juego como por ejemplo en el ajedrez. El número de movimientos en el  juego tres en raya es cuatro o cinco (dependiendo de si el jugador empieza o no, y considerando que ninguno de los jugadores puede saltarse un turno), mientras que el número de estrategias es superior a seis billones Una  estrategia pura  proporciona una definición completa para la forma en que un jugador puede jugar a un juego. En particular, define, para cada elección posible, la opción que toma el jugador (DEL, 2014). La teoría de juegos es un área de la matemática aplicada que utiliza modelos para estudiar interaccionesenestructurasformalizadasdeincentivos que son llamados juegos. La teoría de juegos se ha convertido en una herramienta importante para la teoría económica y ha contribuido a comprender más adecuadamente la conducta humana frente a la toma de decisiones. Los estudiosos o investigadores estudian las estrategias más óptimas así como el comportamiento previsto y observado de individuos en juegos. Tipos de interacción aparentemente distintos pueden, en realidad, presentar estructura de incentivo similar y, por lo tanto, se puede representar mil veces conjuntamente un mismo juego (Rubinstein, 2012).
  • 19.
    2 Lo importante enlas ciencias de la computación en el área de la inteligencia artificial son los algoritmos genéticos y la computación evolutiva que permite resolver problemas de optimización combinatoria como estrategia para resolver problemas. Los Algoritmos Genéticos denominados AG o AGs son métodos adaptativos que son capaces de crear soluciones para los diferentes problemas a través de búsqueda y optimización de las soluciones. Según Moujahid, Inza y Larrañaga (s.f.) indican que la evolución de los algoritmos genéticos que han sufrido en el tiempo depende de los valores óptimos del problema y de codificación del mismo, por lo cual se debe tomar en cuenta el pseudocódigo del algoritmo genético en su forma abstracta que se describe en la figura 1. Figura 1. Pseudocódigo del Algoritmo Genético Abstracto Fuente: (Moujahid, Inza y Larrañaga, s.f.) Una importante característica de los Algoritmos Genéticos Abstracto constituye la optimización de funciones, donde Moujahid, Inza y Larrañaga (s.f.) consideran a un Algoritmo Genético Abstracto como una 10-tupla de la siguiente forma: Figura 2. 10-tupla de AGA Fuente: (Moujahid, Inza y Larrañaga, s.f.) Donde: Figura 3. Características 10-tupla de AGA Fuente: (Moujahid, Inza y Larrañaga, s.f.) Para la Computación Evolutiva se utiliza técnicas de resolución de problemas los cuales se basan en la misma naturaleza y como se comportan los animales, insectos, utiliza mecanismos de selección de soluciones que se consideran los más potenciales y luego con ellos se construye nuevos candidatos mediante la combinación de sus características. Según Diéguez, Ovejero y Roblero (2003, p. 3) indican que: “La Programación Evolutiva es una técnica de Computación Evolutiva útil para incorporar conocimiento específico a los Algoritmos Genéticos y de esta forma mejorar la eficiencia de éstos”. Por lo cual la Programación Evolutiva engloba la evolución de los algoritmos genéticos permitiendo encontrar soluciones más optimas y mejores. También la programación de juegos está convirtiéndose hoy en día en un campo muy estudiado donde se investigan y aplican técnicas gráficas, algoritmos, Inteligencia Artificial y otras técnicas. En la programación de juegos se utilizan frecuentemente técnicas de optimización para resolver diferentes problemas, programación evolutiva y los algoritmos genéticos. 2.1 JUEGO CUATRO EN RAYA. El juego de “Cuatro en Raya” tiene siglos de antigüedad, se conoce de este juego desde que el capitán James Cook solía jugar con sus oficiales en sus largos viajes, así que también se lo llama a este juego “La señora del capitán”, ahora este juego es propiedad de la empresa Hasbro para su distribución. El juego “Cuatro en Raya” es un juego de estrategia para dos jugadores que consisten en una matriz o tabla de dimensión de seis filas por siete columnas (esta dimensión puede tener variaciones de tamaño) y cada jugador va colocando una ficha de color (siendo las más usuales roja y azul) a la vez la cual por defecto siempre se acomoda en la parte inferior de la columna y gana aquel jugador que forme cuatro fichas del mismo color en una fila pudiendo ser horizontal, vertical o diagonal.
  • 20.
    3 Figura 4. Tablerode Cuatro en Raya Fuente: Elaboración propia En un juego de computadora, el usuario compite con el ordenador, donde debe llegar a formar cuatro fichas del mismo color continuas para ser el ganador. Figura 5. Tablero de Cuatro en Raya Fuente: Elaboración propia 2.2 ASPECTOS DEL ALGORITMO EVOLUTIVO La función de evaluación está dada por puntuación de la ficha de acuerdo a su ubicación en el tablero con relación a las otras fichas. Según el juego avanza las estrategias deben ir evolucionando y la función de adaptación va variando. La interacción del usuario con el ordenador provoca que las jugadas se hagan más dinámicas, y el lugar donde se coloque las fichas dependa en todo momento de lo que el contrincante haya hecho en su último jugada. Por ello se puede generar una población de individuos en cada iteración, individuos que representarían las posiciones más aconsejables a cubrir dentro del tablero. 2.3 REPRESENTACIÓN DE LA POBLACIÓN. La población es un conjunto de casillas, representadas con números que corresponden a cada casilla del tablero. Todas esas casillas que genera el ordenador en cada ronda, deben estar dentro de los límites del tablero y además corresponder solo a las casillas vacías. De forma estructurada se puede representar a la población de la siguiente forma: Vector <TIndividuo*> _poblacion; Donde el “Vector” es un vector de punteros que representa a los individuos o posiciones del tablero vacías. Figura 6. Vector gráfico de punteros al inicio del juego Fuente: Elaboración propia Figura 7. De un juego cualquiera su representación de su vector gráfico de punteros Fuente: Elaboración propia 2.4 GENERACIÓN DE LA POBLACIÓN. La población está representada en un vector de punteros que representa a los individuos o posiciones del tablero, la generación de los individuos hay que realizarlo en cada iteración, se genera y almacena junto a cada individuo para su adaptación. 2.5 REPRESENTACIÓN DE LOS INDIVIDUOS Y GENERACIÓN DE LOS INDIVIDUOS. Un individuo está representado en una casilla del tablero a través de su posición (fila y columna) y el color de ficha (Azul o Rojo) de la siguiente manera: Figura 8. Código adaptado que representa a los individuos Fuente:(Diéguez, Ovejero y Roblero, 2003)
  • 21.
    4 Figura 9. Representacióngráfica de individuos Fuente: Elaboración propia Como se ve en la figura 9 cada individuo para ser identificado esta combinado de un componente x, componente y, un color que identifica al jugador. Para que una casilla pueda ser ocupada tiene que estar vacía previamente. 2.6 FUNCIÓN DE ADAPTACIÓN. La población es un conjunto de casillas que el ordenador administra o baraja teniendo una serie de posibilidades para escoger y debe elegir una posición clave y como de eso se encarga la función de adaptación de ahí su importantísima. Según Diéguez, Ovejero y Roblero (2003, p. 28) indican que en una función de adaptación se debe tomar en cuenta la siguiente: Que la jugada consiga el mayor número posible de fichas en línea, siendo el cuatro en raya la mejor de las jugadas. · Que la jugada tapone las buenas jugadas de nuestro contrincante. Y si la jugada no consigue nada positivo en un primer instante, que la jugada por la que nos decidamos, si tenga expectativas de futuro, es decir que sea provechosa, que emprenda algo positivo. Entonces antes de realizar la siguiente jugada se debe analizar las condiciones actuales del tablero y ver los diferentes estados del juego, o sea las posiciones de nuestras fichas y las de nuestro contrincante que se reflejan en una matriz formada por vectores de la siguiente forma: vector<vector<void*> > *matriz; Figura 10. Aptitud = 100, si conseguimos cuatro en raya. Fuente: Elaboración propia Para cada jugada se le puede asignar un peso de acuerdo a la importancia de la jugada por ejemplo se muestra en la figura 10 y 11: Figura 11. Aptitud = 50, si bloquea alguna jugada de tres seguidos. Fuente: Elaboración propia Entonces tomando en cuenta la explicación anterior mostraremos parte del código de la función de aptitud que de acuerdo a las posiciones y logros en el juego va acumulando un valor:
  • 22.
    5 Figura 12. Códigoadaptado de la función aptitud Fuente:(Diéguez, Ovejero y Roblero, 2003) Para la ejecución de la función aptitud se debe tomar en cuenta la posición selecciona para colocar la ficha y todas las fichas del mismo color que se encuentra en todos el contorno, de igual manera las fichas del contrincante cuando para ver que tanto se bloquea su juego. Figura 13. Explicación gráfica de la función aptitud Fuente: Elaboración propia 2.7 FUNCIÓN DE SELECCIÓN, FUNCIÓN DE REPRODUCCIÓN Y FUNCIÓN DE MUTACIÓN Para el juego cuatro en raya las función de selección, reproducción y mutación, no tienen sentido porque cada jugador elige una posición para jugar y en cada nueva iteración se escoge al mejor individuo, indican una columna donde se coloca la ficha y la fila por defecto es la más profunda. 2.8 PRESENTACIÓN DE LA SOLUCIÓN El juego de cuadro en raya es un juego para dos jugadores que se lo lleva jugando desde hace varios años atrás donde el tablero convencional es de seis filas por siete columnas, a continuación se muestran algunas imágenes de tableros de este juego en diferentes versiones y presentaciones: Figura 14. Juego cuatro en raya Fuente: Imagen del internet Figura 15. Juego cuatro en raya gigante Fuente: Imagen del internet Figura 16. Juego cuatro en raya en computadora Fuente: Imagen del internet Figura 17. Juego cuatro en raya utilizado para este artículo Fuente: Elaboración propia 2.9 VERSIONES DEL JUEGO CUATRO EN RAYA En este artículo se trabajo con la versión original del juego cuatro en raya pero existen variaciones de este juego entre las cuales se menciona las siguientes: Se puede modificar el tamaño del tablero manteniendo las reglas del juego. · Se puede jugar en un tablero de ajedrez donde se tiene la libertad de colocar en cualquier posición no necesariamente como el juego original en la primero fila, luego la segunda y así sucesivamente. · También se puede jugar hasta llenar todo el tablero con las fichas donde se puede realizar varias veces cuatro en raya y ganara el que pudo realizar más veces.
  • 23.
    6 2.10 BENCHMARKING ENTRELOS ALGORITMOS ANALIZADOs Los Benchmarks son pruebas capaces de determinar el programa, algoritmo, proceso es más potente o rápido sin necesidad de revisar un código o pasos a seguir, en el caso del juego cuatro en raya se puede aplicar benchmarking en los siguientes casos: Se puede aplicar el benchmarks incluyendo en el código que controle la hora de inicio del juego, la hora final y finalmente saca la diferencia de estas horas para dar como resultado el tiempo de duración de un juego, pero muchas veces el tiempo empleado en el juego no sugiere que sea un mejor juego por durar más tiempo. · También el benchmarks se puede obtener mediante el valor obtenido de la función de aptitud ya que la misma mientras se juega va almacenando valores según se vaya colocando fichas en el tablero y bloqueando las jugadas del contrincante, cuando mayor sea este número implica que se realizo más estrategias en las jugadas. 3. CONCLUSIONES. Los algoritmos genéticos pueden ser utilizados en todos los juegos de estrategias, pero no necesariamente se pueden ejecutar todas las funciones de algoritmos genéticos por las características de los juegos. Los Algoritmos Genéticos Abstractos están formados por varias funciones y características identificados en 10-tuplas que se deben identificar para aplicar los pasos de algoritmos genéticos. Existen varios juegos estratégicos que funcionan con el uso de algoritmos genéticos como ser: Age of Empires, Caesar 3, héroes of Might & Magic, Civilization, Warhammer 40000 entro otros que son juegos conocidos de computadora y también en juegos de mesa originalmente que ahora ya tiene su versión para computadora como Master mind, Laberinto, Puzzle, Tres en raya, Ajedrez entre los más populares. La programación evolutiva también se aplica en juego de estrategia ya que permite el entrenamiento y evolución del juego lo que implica la aplicación de nuevas y más estrategias en el juego. 4. REFERENCIAS BIBLIOGRÁFICAS. Coello, C. (2017). Introducción a la computación evolutiva. CINVESTAV-IPN. Departamento de Computación. México Diéguez, A., Ovejero, R. y Roblero, A. (2003). ImplementacióndeJuegosusandoAlgoritmos Evolutivos. Sistemas Informáticos Curso 2003 – 2004. Universidad Complutense. DEL (2014). Diccionario de la Lengua Española. Edición del Tricentenario. Real Academia Española. Flores, J. (s.f.). Teoría de juegos. Moujahid, A., Inza, I. y Larrañaga, P. (s.f). Algoritmos Genéticos. Departamento de Ciencias de la Computación e Inteligencia Artificial. Universidad del País Vasco Euskal Herriko Unibertsitatea. Murillo, J., Collado, J., García, I. y García, M. (2004). Implementación de Juegos de Estrategia con Programación Evolutiva. Sistemas Informáticos Curso 2004 – 2005. Rubinstein, A. (2013). De cómo la teoría matemática de los juegos de estrategia resolverá los problemas de la Eurozona y frenará las armas nucleares iraníes. Rudolph,G.(1994).Convergenceanalysisofcanonical genetic algoritms. IEEE Transactions on Neural Networks. Stender, J (1993). Parallel Genetic Algorithms: Theory and Applications. IOS Press.
  • 24.
    7 ALGORITMOS TIPO HASH(MD5-SHA512) Villavicencio Jhonny, Condori Ali Pierre, Cruz Quino Benjamin jhonny@hotmail.com, pierre731i@hotmail.com, bj606340@hotmail.com Universidad Mayor de San Andrés Carrera de Informática Gramatica Española RESUMEN En la actualidad existe dos métodos de encriptación más usados es el MD5 (Message-Digest Algorithm 5, Algoritmo de Resumen del Mensaje 5) y el al- goritmo SHA-1 (Secure Hash Algorithm, Algoritmo de Hash Seguro), MD5 perdió la confiabilidad de los usuarios debido a que resulto no ser tan segura en sustitución de esta se aplicó el SHA-1, el cual contribuye más confiablidad a la información pública, privada de los usuarios. Palabras clave: Encriptación, MD5, SHA, confiabi- lidad, segura. ABSTRACT Cryptography is the study of mathematical techni- ques related to aspects of information security such as confidentiality, data integrity, entity authentication, and data origin authentication, cryptography is not the only means of provid-ing information security, but rather one set of techniques. Keyword: Encryption, MD5, SHA, reliability, secure. 1. INTRODUCCIÓN Una gran mayoría de las personas tienen información personal, publica, privada presente en la nube, con el objetivo de estar disponible en cualquier lugar en que nos encontremos, siempre que tengamos conexión a internet, en la actualidad la información siempre está al asecho de los ladrones informáticos. En los métodos de encriptación los métodos de cripto- grafía se lo considera que son aquellos que involucran a algunos algoritmos criptográficos, ya que tienen como objetivo final desarrollar un método de encrip- tación las cuales brindan seguridad y confianza en la manipulación de los datos. Por eso los métodos de encriptación son muy importantes ya que es por donde se envía el texto a cifrar se asegura la implementación de galerías de algoritmos criptográficos para el pleno funcionamiento para lo cual se tendría que conformar una cierta posibilidad. El concepto de principal de las funciones que se rea- lizan dentro de las funciones de una vía, las encrip- taciones de hash tienen como objetivo implementar más seguridad y confianza en el momento de enviar documentos por la Web. No se utilizan para encriptar Información, sino que forman parte fundamental de muchos algoritmos y técnicas criptográficas. Un algoritmo consiste en un conjunto determinado y finito de pasos o acciones con el objetivo de solu- cionar un problema. Los algoritmos criptográficos son funciones matemáticas que son utilizadas en los procesos de encriptación o des encriptación de datos, que será la entrada o parámetro de las funciones. Debe entenderse que las encriptaciones y des encriptaciones sean finitas. La criptografía es el estudio de técnicas matemáticas relacionadas con los aspectos de la seguridad de la in- formación tales como la confidencialidad, la integri- dad de datos la autentificación de entidad y de origen. La criptografía no comprende solo a los medios para proveer seguridad de información sino a un conjunto de técnicas. 2. DESARROLLO En el presente apartado explicaremos algunos tipos de encriptación, una utilizada confiablemente en la actua- lidad (Algoritmo MD5) y otra que en el año 2004 fue vulnerable de tal manera que perdió la confiabilidad en la comunidad de desarrolladores (Algoritmo SHA). En interpretación del tema una vía hash se refiere a los distintos tipos de encriptación que cumplen funciones en la cual se podrá comparar resultados e igualar si- militudes entre otros métodos de encriptación, a partir del resultado serán segura, aunque dispongamos de toda capacidad de procesamiento que podamos adqui- rir.La criptografía hoy en día cubre distintos objetivos a veces muy alejados del tradicional y más
  • 25.
    8 conocido de latransmisión segura de información. Este tipo de aplicaciones se engloba dentro de lo que denomina protocolo criptográfico que es un protocolo que utiliza como herramienta algún algoritmo cripto- gráfico. Existe una amplia variedad de ellos que dan respuesta a diferentes objetivos. Se trata de un tema amplio y en rápido crecimiento. (López, 1998). 1.1 Algoritmo MD5 Dentro de la encriptación estas se entrelazan en ron- das, cada ronda implementa una serie de operaciones en la cual la aplicación de la función o galería imple- mentada en los lenguajes de programación esta dispo- ne de 16 repeticiones. Cada una de estas funciones co- rresponden a una línea que de pronto se implementan variables en cada uno de los procesos mencionados ya que junto a ello conforman varias variables con datos de bits, finalmente el resultado remplazara el conteni- do de alguna de las variables inicializadas. (Figura 1). Figura 1. Muestra los distintos algoritmo de encriptación y los resultados. Fuente. (Autoría propia,2017) Los algoritmos se producen a través de una entrada no limitada en cuanto a su tamaño una encriptación es un resumen de 128 bits de longitud. Se lo emplea ac- tualmente en diferentes aplicaciones de seguridad una de las mas populares es la codificación de archivos y mensajes. Desde muchos sitios web que ofrecen des- cargas de archivos se ofrece también el resultado de la encriptación obteniendo a partir del archivo a manera de revisar o comprobar para poder confirmar luego de descargarlo y obtener de fuentes secundarias para que se pueda manipular con facilidad la encriptación. Estas comprobaciones sueles representarse en una ca- dena de 32 caracteres alfanuméricos que pertenecerán a los 16bytes en formato hexadecimal. Al menos por ahora no se ha descubierto una técnica que permita obtener una entrada original a la encriptación o alterar a discreción de un archivo o también puede ocurrir una expulsión a través de los bits sobrantes. Es un algoritmo que proporciona un código asociado a un archivo o un texto concreto. De esta manera el archivo viene unido al archivo, en el que el archivo también es conocido como hash. Es representada por un número de 32 dígitos en hexadecimal, un mínimo cambio dentro de la palabra nos dará como resultado un cifrado distinto. Con el hash de la descarga buscamos en web datos del programa y buscar el código MD5 de su instala- dor original, ya una vez tengamos ambos códigos se pasa a verificar si estos coinciden y ver si el archivo es confiable. 1.1.1 VENTAJAS DE LOS ALGORITMOS DE ENCRIPTACIÓN • Para asegurarnos que es una encriptación e instalación fiable. • Crear un propio código MD5 para quien haga el uso y compruebe su integridad. • En la instalación de un firmware es donde proporciona información referente a la seguridad del archivo, y dar informes sobre la complejidad ya que al realizar una instalación esta te detecta archivos incompletos o dañados. Figura 2. Ventajas de encriptación. Fuente. (www.genbetadev.com,2017) MD5 ha sido ampliamente usado, y originalmente se pensaba que era criptográficamente seguro. No obs- tante, ciertas investigaciones han destapado vulnera- bilidades que hacen cuestionable un futuro uso del MD5. El 17 de Agosto del año 2004 Xiaoyun Wang, Dengguo Feng, Xuejia Lai y Hongbo Yu anunciaron que habían descubierto colisiones de hash para MD5. Su ataque sólo llevó una hora de cálculo con un clúster IBM P690.
  • 26.
    9 Aunque el ataquede Wang era analítico, el tamaño del hash (128 bits) es suficientemente pequeño para poder contemplar ataques de ‘fuerza bruta’ tipo ‘cum- pleaños’. MD5CRK era un proyecto distribuido que comenzó en Marzo del 2004 con el propósito de de- mostrar que MD5 es inseguro encontrando una coli- sión usando un ataque de ‘fuerza bruta’, aunque acabó poco después del aviso de Wang. (Kriptopolis, 2015). 1.2 ALGORITMO SHA Está basado en la técnica de MD5, la primera versión fue publicado en 1993 renombrado como SHA, en la actualidad se lo conoce como SHA-0, dos años des- pués se publicó el SHA-1, es considerado el mejor al- goritmo de la familia de Algoritmos Hash, es el más aplicable el cual actualmente se considera el más se- guro, su encriptación produce un código hash de 160 bits para mensajes de longitud máxima de 264 bits, aunque también se puede notar que se producen códi- gos de mayor longitud en algunas variantes. Fue diseñado para ser utilizados en modo básico que implementa el algoritmo DSA ya que existen cinco versiones o variantes del algoritmo SHA-1 que es el más utilizado actualmente ya que la criptografía es de 160 bits y las versiones que lo siguieron fueron mejo- radas y en las cuales tuvieron nuevos nombres como ser SHA-2y que corresponden al distintos conjuntos de algoritmos como ser el SHA-224, SHA-255, SHA- 384 y SHA-512, (Figura 3). las cueles tienen distintas funciones específicamente estos algoritmos son más seguros que las anteriores versiones ya que en cada modificación hay una diferencia en la encriptación ya que a partir de ello todos son fáciles de encriptar. Figura 3. Se muestra el algoritmo funcional. Fuente. (www.google.com,2017) También como el algoritmo MD5 el proceso principal consta de un ciclo dentro cual en cada encriptación se procesan 512 bits del mensaje o información de entra- da. Una diferencia para notar que en cada encriptación se aplica una nueva función que no es lineal como en MD5, pero 20 veces en lugar 16. Las condiciones en la encriptación son más sencillas y similares al momento de programar. En 1998, un ataque a SHA-0 fue encontrado pero no fue reconocido para SHA-1, se desconoce si fue la NSAquien lo descubrió pero aumentó la seguridad del SHA-1.SHA-1 ha sido examinado muy de cerca por la comunidad criptográfica pública, y no se ha encontra- do ningún ataque efectivo; en todos los aspectos son de vulnerabilidad esto ha planteado dudas sobre la seguridad a largo plazo de SHA-1 y por lo cual serán más seguros. Está representada por una cadena de 40 dígitos en hexadecimal, claramente es más seguro que MD5, pero bajo ataque de fuerza bruta deja de ser efectivo, también está diseñado para trabajar con el Algoritmo de Firma Digital. 1.2.1 PROCESO Consta de cinco pasos los actuales se explican a con- tinuación: • Se incorpora bits de relleno que consiste en uno seguido de los ceros que sean necesarios el rango de relleno está entre 1 a 512. • Se le añade un bloque de 64 bits que repre- senta la longitud del mensaje original antes de ser rellenado. • Se inicializa la memoria temporal MD, que costa de 160 bits, la cual almacena los resultados. La MD consta de 5 registros (A, B, C, D, E) de 32 bits cada uno, los valores con los que se inicializan son las siguientes (valores hexadecimales): • A: 67452301 B: EFCDAB8 C: 98BADCFED: 10325476 E: C3D2E1F0 • Se procesa el mensaje por bloques de 510 bits, cada uno pasa por un módulo que consta de cuatro rondas de procesamiento de 20 pasos cada una. Las rondas tienen una estructura similar, con la excepción de que cada una ocupa una función lógica primitiva diferente (F1, F2, F3 y F4). • Una vez se procesan los bloques de 510 bits, el resumen del mensaje son los 160 bits de salida del último bloque. En este documento “palabra” es una entidad de 32 bits y un byte es una entidad de 8 bits. Una secuencia de
  • 27.
    10 bytes puede serinterpretada de manera natural como una secuencia de bits, donde cada grupo consecutivo de ocho bits se interpreta como un byte con el bit más significativo al principio. 1.2.2 CARACTERÍSTICAS Los algoritmos criptográficos tienden a degradarse con el tiempo. A medida que transcurre el tiempo, los algoritmos de encriptación se hacen más fáciles de quebrar debido al avance de la velocidad y potencia de los equipos de computación. Todos los algoritmos criptográficos son vulnerables a los ataques de fuerza bruta, tratar sistemáticamente con cada posible clave de encriptación, buscando colisiones para funciones hash, factorizando grandes números, etc. La fuerza bruta es más fácil de aplicar en la medida que pasa el tiempo. • Es imposible encontrar un mensaje que sea similar. • Si cambia, será solo un carácter t el resultado será muy diferente. • No se encontrará dos mensajes diferentes con el mismo mensaje. 1.3 COMO ENCRIPTAR CONTRASEÑAS EN JAVA En esta ocasión damos a conocer cómo encriptar con- traseñas en Java con MD5y SHA. Vamos a hacer uso de una librería que nos proporciona la Apache Sof- tware Fundación. La librería es la Apache Commons Codec 1.10 (Figura 4). • Descargamos la librería. • La descomprimimos. • Buscamos el jar llamado commons-co- dec-1.10.jar. • Lo incorporamos al proyecto iniciado. • Agregar a la clase Import.org.apache.commons.codec.digest.Diges- tUtils;. Figura 4. Muestra de la librería agregada. Fuente. (Autoría propia,2017) Funciones en un solo sentido se caracterizan por dos propiedades. La primera es que son de sentido úni- co. Esto significa que usted puede tomar un mensaje y calcular un valor de hash, pero no se puede tomar un valor recrear el mensaje original. También es libre de colisión y, por tanto, no hay dos mensajes hash con el mismo valor.SHA‐1 ha sido examinado muy de cerca por la comunidad criptográfica pública. No obstante, en el año 2004, un número de ataques significativos fueron divulgados sobre funciones criptográficas de hash con una estructura similar a SHA‐1; lo que ha planteado dudas sobre la seguridad a largo plazo de SHA‐1. (Wolf, 2009). 1.3.1 ENCRIPTAR MD5 Aquí estamos haciendo uso de la clase DigestUtils y su método md5Hex(), el cuál recibe un parámetro que es la cadena a encriptar y retorna una cadena que ya está encriptada (Figura 5). Figura 5. Resultado del algoritmo MD5. Fuente. (Autoría propia,2017) 1.3.2 ENCRIPTAR SHA Aquí estamos haciendo uso de la clase DigestUtils y su método sha1Hex(), el cuál recibe un parámetro que es la cadena a encriptar y retorna una cadena que ya está encriptada (Figura 6).
  • 28.
    11 Figura 6. Resultadodel algoritmo SHA. Fuente. (Autoría propia,2017) La encriptación informática sería la codificación la in- formación de archivos o de un correo electrónico para que no pueda ser descifrado en caso de ser intercepta- do por alguien mientras esta información viaja por la red. Es por medio de la encriptación informática como se codifican los datos. Solamente a través de un sof- tware de descodificación que conoce el autor de estos documentos encriptados es como se puede volver a decodificar la información. Por lo que la encriptación informática es simplemente la codificación de la información que vamos a enviar a través de la red (Internet). Para poder descodi- ficarla como dijimos es necesario un software o una clave que sólo conocen el emisor y el receptor de esta información. La encriptación de la informática se hace cada vez más necesaria debido al aumento de los ro- bos de claves de tarjetas de crédito, número de cuentas corrientes, y en general toda la información que viaja por la red, etc. (Figura 7). Figura 7. Encriptación en Java MD5 y SHA. Fuente. (Autoría propia, 2017) Todo esto ha fomentado que se quiera conseguir una mayor seguridad en la transmisión de la información sobre todo a través de Internet. Es por ello que las últimas versiones de los navegadores de Internet ya usan sistemas automáticos de encriptación de datos para que sea más difícil para los hackers robarlos y en la cual se tendría que implantar más algoritmos a la función que ejecutan cada uno de ellos ya que se ten- dría un resultado eficiente y seguro (Figura 8). Figura 8. Resultado de la encriptación en JAVA. Fuente. (Autoría propia, 2017) 2. CONCLUSIONES La encriptación se definió como parte de la cristología y se ocupan de distintas técnicas, bien sean aplicadas el arte o la ciencia, que alteran mensajes, mediante técnicas de cifrado o codificado, hacerlos difícil de en- tenderlas y que sean difíciles de entender por los intru- sos para que los interpreten. Por tanto, el objetivo de la criptografía es conseguir la seguridad del usuario. La encriptación es muy necesaria para la transferencia de datos e información y cómo podemos ver también tiene algunos puntos débiles como en MD5 que pudo ser burlada pero también así se busca mejores méto- dos para encriptar dicha información como podemos notar el caso del algoritmo SHA que trajo consigo una solución al problema del MD5. En conclusión, la criptografía en uno de los métodos para proteger la información, forma parte de la segu- ridad informática y existen diferentes tipos de encrip- tación, cada uno de ellos tienen diferentes funciones. 3. REFERENCIAS BIBLIOGRÁFICAS Bellaleislyeva.blogspot (2011), Los métodos de en- criptación son seguros, pero a la vez inseguros en la cual existe un buen resultado en la se- guridad. Recuperado de: http://bellaleislyeva. blogspot.com/2011/05/seguridad-y-encripta- ción-de-bases-de.html?m=1 Canalvisualbasic (2016), Una caída del estándar SHA- 1 también afectaría a la seguridad de los certi- ficados digitales. Recuperado de: http://www. canalvisualbasic.net/foro/seguridad-y-encrip-
  • 29.
    12 tacion/encriptacion-algoritmo-sha-1-a-7145/ Elmonton (2016), Crakeadorde hash´s MD5 Online y Offline. Recuperado de: http://www.elmonton. net/MD5_Crack.php?contenido=md5crack Eumet (2017), Es uno de los algoritmos de reducción criptográficos diseñados por el profesor Ronald Rivest. Recuperado de: http://www.eumet.net/ algotitmos/encriptaciondedatos/ Kriptopolis (2015), SHA-0 y SHA-1 producen una salida resumen de 160 a 264 bits. Recuperado de: http://www.kriptopolis.org/debilidad-sha1 MD5-python (2010), Código desglosado de MD5 en Python. Recuperado de: http://md5-python. comxa.com/ Msmanuelsanchez blogspot (2015), El Cifrado de có- digos tiene que ser muy complejo y difícil de entender. Recuperado de: http://msmanuelsan- chez.blogspot.com/2015/10/tipos-de-cifrados- sha-md5-rsa.html?m=1 Oroyfinanzas (2017), Tiene definiciones y anécdo- tas sobre personas que frecuentemente usan la encriptación actual por lo cual es más usa- do. Recuperado de: https://www.orofinanzas. com/2014/01/algoritmo-sha-256-protoco- lo-bitcoin-secure-hash-algorithm/ Puertosabiertos (2014), Cifra texto en algoritmo MD5 y algoritmo SHA. Recuperado de: http://www. puertosabiertos.com/ Scripbd (2017), Encriptación y cifrado son muy dife- rentes ya que unos de otro cumplen distintos trabajos. Recuperado de: https://es.scribd.com/ movile/doc/55231771/Encriptacion-o-Cifra- do-de-Datos Sarasa López, M. A., Pastor Franco, J., & Salazar Riaño, J. L. (1998). Criptografíafundamentos y aplicaciones. Zaragoza: Prenseas Universi- tarias de Zaragoza. Wolf, S. (2009). Unconditional Security in Cryptog- raphy. Swiss Federal Institute of Technology. Zürich.
  • 30.
    13 ANDROID OREO VERSIÓN8.0 Quino Terán Obed, Quispe Paco Marcos, Suxo Gandarillas Wilmer Rodrigo obedquinoteran@gmail.com, marcosDota7@gmail.com, wilkpo07@gmail.com Universidad Mayor de San Andrés Carrera de Informática Gramática Española RESUMEN La última versión de Android presentada oficialmen- te por los desarrolladores de Google el 21 de agosto de 2017 llamada Oreo debido a las famosas galletas Oreo tiene interesantes novedades las cuales tenemos entendido que son 27 en total, en el presente artícu- lo presentaremos las características que nos parezca principales o más interesantes, estas novedades no las podemos criticar todavía su desempeño en los dife- rentes dispositivos más conocidos ya que las actua- lizaciones tardaran un poco en llegar, depende de los fabricantes de cada compañía, entonces por esa razón también presentaremos mediante una tabla los dispo- sitivos confirmados para la actualización a la última versión. Palabras Clave: Android, aplicación, dispositivo, Google, Oreo, Rom, versión. ABSTRACT The latest version of Android officially presented by Google developers on August 21, 2017 called Oreo due to the famous Oreo cookies has interesting news which we understand that there are 27 in total, in this article we will present the features that we think are the most important or more interesting, these develop- ments we can not criticize yet their performance in the different devices better known as the updates will take a while to arrive, depends on the manufacturers of each company, so for that reason we will also present through a table the confirmed devices for the update to the latest version. Keywords: Android, application, device, Google, Oreo, Rom, version. 1. INTRODUCCIÓN Se dice que la mayoría de las personas que poseen dispositivos móviles utilizan el sistema operativo de la mano de Google: Android, estamos seguros que los fanáticos estaban pendientes del lanzamiento de la más reciente versión, el cual es denominado Oreo como ya nos tienen acostumbrados los desarrolladores que utilizan nombres de postres o dulces para las ver- siones principales. Desde que se lanzó la versión 1.0 de Android en sep- tiembre de 2008 fue creciendo poco a poco este siste- ma que fue vendida a Google posteriormente. Tal vez las versiones más conocidas que marcaron una gran diferencia fueron la 2.3 Gingerbread que presentaba un entorno más amigable, luego la versión 4.0 Ice Cream Sandwich que tenía mejores características y el entorno sería aún más amigable. A partir de la versión 4.1 Jelly Bean se requirió mejores dispositi- vos para su desempeño, así que las compañías más co- nocidas como Sony, Samsung y demás, desarrollaron equipos de gama media-alta y de gama alta que fueron insignias de cada fabricante por un cierto tiempo hasta que salían nuevos modelos. 2. DESARROLLO 2.1 DEFINICIÓN DE ANDROID Hoyendíaestetérminoyaesmanejadocomotalgracias a la gran fama que alcanzo el sistema operativo, pode- mos citar la siguiente definición: “Android es un sistema operativo inicialmente pensa- do para teléfonos móviles, al igual que iOS, Symbian y Blackberry OS. Lo que lo hace diferente es que está basado en Linux, un núcleo de sistema operativo libre, gratuito y multiplataforma.” (Nieto, 2011) Figura 1. Logo oficial de Android Fuente: (García, 2012)
  • 31.
    14 El logo deAndroid es diseñada por Irina Blok inspira- da en un simpático robot, apodado Andy. También podemos mencionar que fue desarrollado inicialmente por Android Inc. compañía fundada por Andy Rubinen 2003 y comprada por Google en 2005. El primer teléfono móvil que tuvo el sistema operativo Android fue un HTC Dream que fue lanzado en 2008. A continuación presentamos todas las versiones hasta el momento: Nombre Versión Android 1.0 (Apple Pie) 1.0 Banana Bread (pan de plátano) 1.1 Cupcake 1.5 Donut 1.6 Android 2.0 Éclair(pepito francés) 2.0 y 2.1 Froyo(abreviatura de frozen de yogurt) 2.1 Gingerbread(pan de jengibre) 2.3 Honeycomb 3.0, 3.1, 3.2 Ice Cream Sandwich 4.0 JellyBean 4.1, 4.2 KitKat(chocolatina de Nestle) 4.4 Lollipop(piruleta) 5.0 Marshmallow(malvavisco) 6.0 Nougat(Turrón) 7.0 Oreo 8.0 Tabla 1. Todas las versiones de Android Fuente: Elaboración propia En la tabla 1 podemos ver las distintas versiones de Android desde el año 2008 que se lanzó hasta el mo- mento, curiosamente desde la versión 5.0 ya no exis- ten versiones intermedias por lo que podemos desta- car versiones más estables ya que también a partir de Lollipop se presentó anualmente. La versión 8.0 tiene características interesantes las cuales desarrollaremos posteriormente, tal vez criti- caremos lo malo o rescataremos lo bueno a nuestro criterio. 2.2 ¿QUÉ ES ANDROID OREO? Es la última versión de Android denominado así por las famosas galletas, esta versión 8.0 se presentó ofi- cialmente el 21 de agosto de 2017. “Más inteligente, más rápido, más potente y más dulce que nunca. La cookie favorita del mundo es u nueva versión de Android favorita.”(Anónimo, 2017) Figura 2. Logo oficial de Android Oreo Fuente: (www.android.com, 2017) 2.3 LAS MEJORES CARACTERÍSTICAS. • Instala aplicaciones desconocidas. Ya que desaparece la opción ”orígenes des- conocidos” • Con tan solo mantener presionado los puntos de notificaciones que figuran so- bre las apps se pueden ver las notificaciones.
  • 32.
    15 Figura 3. Instalaaplicaciones desconocidas Fuente: (Anónimo, 2017) • Iconos adaptativos: se refiere a los iconos de las aplicaciones que se pueden mo- dificar de forma redonda, cuadrada bordes curvas, o mixta una forma intermedia entre las primeras • La función picture in picture permi- te navegar y leer mails mientras esta en se- gundo plano. Figura 4. PIP Fuente: (Anónimo, 2017) • Mejora la velocidad de inicio al en- cender el teléfono. • Canales de notificación nos permi- tirán personalizar qué tipo de notificación queremos que nos muestre cada aplicación. Figura 5. Canales de notificación Fuente: (Anónimo, 2017) • Cuando se seleccionan textos pre- sionando la pantalla, el sistema reconocerá la información y la buscara automáticamente. • Autofill con Google para permitir- nos autocompletar los datos de inicio de se- sión (usuario y contraseña) y llenar automá- ticamente los formularios. Figura 6. Selector de texto Fuente: (Herrera, 2017) • Fluid Experience, la misma ha sido diseñada para establecer 3 niveles de con- trol de actividad en segundo plano, todo de acuerdo a si nos hacen llegar notificaciones, si están brindando información sobre la ubi- cación y si están realizando actividad de ma- yor peso pero en segundo plano.
  • 33.
    16 Figura 7. Fluidexperience. Fuente: (Herrera, 2017) • Emojis nuevos: se mejoró la reso- lución y la visualización, aunque pensamos que esto también depende si estas utilizando un dispositivo de gama alta o media-baja. • Un gestor de notificaciones deslum- brante, podemos agrupar las notificaciones de acuerdo al contacto que ha emitido uno o varios mensajes. Por ejemplo, si llegas a recibir 7 mensajes en Telegram y 5 son del mismo usuario, la interfaz agrupará estos mensajes para que los mismos se proyecten juntos y puedan ser mejor observados. Aunque esta función parece similar a la que se puede apreciar en la versión de un dispositivo móvil Sony con Android 7.1. Figura 8. Notificaciones deslumbrantes. Fuente: (Herrera, 2017) • Android O podrá activar automáti- camente el Wi-Fi cuando esté cerca de redes guardadas. Figura 9. Red Wi-fi. Fuente: (Anónimo, 2017) • El Huevo de pascua que sale luego de presionar varias veces la versión de An- droid en ajustes del teléfono. Figura 10. Huevo de pascua Fuente: (Anónimo, 2017) Esto es curioso ya que en la anterior versión de Android 7.0 Nougat no aparece después del logo ningún mini juego que se acostumbraba a con- templar en versiones anteriores. • Modificaciones en el panel de no- tificaciones y configuraciones rápidas (por ejemplo, el icono para abrir los ajustes ahora estará en la parte inferior, en vez de la parte superior). Esto es muy útil cuando usas las diferentes opciones de configuraciones en tu dispositivo. • El app de descargas se convierte en gestor de archivos y funciona como un ad- ministrador de documentos y archivos. Es interesante aunque en nuestros dispositivos tenemos gestores pre instalado que ya no se usarían frecuentemente. • En las opciones ocultas, es posible personalizar los botones de navegación de Android, permitiendo inclinarlos hacia un
  • 34.
    17 lado o añadirhasta dos nuevos botones más. Además, en estas opciones ocultas, es posible personalizar los atajos de la pantalla de bloqueo. Creemos que estas opciones solo estarán disponi- bles e los dispositivos de Google. • En los Google Pixel, los botones de navegación se oscurecen cuando abres el cajón de apps. También tienes la opción de cambiar el tema del celular. 2.4 DISPOSITIVOS COMPATIBLES. Los usuarios que poseen dispositivos con la antigua versión Nougat seguro esperan que lleguen las respec- tivas actualizaciones. Por experiencia sabemos que si estos dispositivos fueron actualizados anteriormente no volverán hacerlo 2 veces aunque esperamos que no ocurra esto. Por ejemplo el Sony Xperia Z5 ya se ac- tualizo de la versión 6.0 a la versión 7.0, pero creemos que la versión Oreo puede llegar ya que se confirmó dispositivos de gama media como los de la familia XA que contaría con Oreo, entonces el Z5 puede soportar aunque la memoria Rom bajaría un poco, lo que ocu- rre en diferentes marcas luego de una actualización. Existes aficionados que tienen dispositivos que no serán compatibles con la versión Oreo, seguramente recurrirán a las “Rom’s cocinadas” como se los de- nomina. La siguiente tabla detalla los dispositivos compatibles. Fabricante Móviles Google Google Pixel / Pixel XL, Nexus 5X, Nex- us 6P, Nexus Player, Pixel C Nokia Nokia 3, Nokia 5, Nokia 6, Nokia 8 OnePlus OnePlus 3, OnePlus 3T, onePlus 5 HTC HTC U Ultra, HTC 10 LG LG G6, LG G6+, LG Q6, LG V20 y LG G5 Samsung Galaxy C7 Pro, Gal- axy C9 Pro, Galaxy Tab S3, Galaxy J5 2017, Galaxy J7 2017 y J7 Prime, Galaxy A32017, A5 2017, A7 2017, S7, S7 edge y S7 Active, S8 y S8+, Galaxy Note FE, Sony Sony Xperia XA1, Sony Xperia XA1 Ul- tra, Sony Xperia X, X Compact, X Per- formance, Sony Xpe- ria XZ, XZs, Sony Xperia XZ Premium, Sony Xperia L1 Lenovo Moto Z2 Force, Moto Z2 Play, Moto G5 y Moto G5 Plus, Moto G5S y Moto G5S Plus, Moto Z, Moto Z Play. Huawei y Honor Huawei Mate 9, Hua- wei Mate 9 Pro, Hua- wei Mate 9 Porsche Design, Huawei P10 Xiaomi Xiaomi Mi 6, Mi Max 2,Mi 5x, Xiaomi Mi 5C y familia Redmi Tabla 2. Dispositivos compatibles Fuente:(Anónimo, 2017) En la tabla 2 se muestra los dispositivos que están con- firmados para su actualización, los que se espera que se actualizarán o tal vez ha habido alguna filtración de información en las páginas oficiales de los fabricantes. También tenemos entendido que Google ha informa- do que compañías (fabricantes) como: HMD Global
  • 35.
    18 (Nokia), Huawei, HTC,Kyocera, LG, Motorola, Sam- sung, Sharp y Sony ya están trabajando con la versión previa de Android Oreo y aseguran que las actualiza- ciones para algunos de sus dispositivos llegarán hacia finales de año. Si se quiere más detalles actualizados tendrían que ingresar a las páginas oficiales de cada compañía se- guramente allí se tiene información más precisa de los dispositivos. Un dato más que sabemos es que el código fuente de Android oreo ya está disponible en el Android Open Source Project (AOSP) para todos los interesados. En- tonces ya saldrán Rom’s no oficiales para su descarga y posterior uso, para los que no tienen idea de esto, se requiere que los dispositivos estén “roteados” como se dice por costumbre (súper usuario), los desarrollado- res más conocidos pertenecen a la familia de Cyano- gen Mod que ya son expertos en el tema. 3. CONCLUSIONES En conclusión podemos decir: Android Oreo como to- das las versiones siempre se espera algo destacable y algo para mejorar en la siguiente versión, ya que ape- nas el 21 de agosto se presentó dicha versión y las ac- tualizaciones todavía tardaran un poco en llegar a las marcas más vendidas, se harán esperar estas opiniones de los usuarios que lo manifestarán seguramente en las redes sociales, blogs o páginas de la web. En cuanto a las características que presentamos que solo fueron las que nos pareció interesante, tenemos entendido que son 27 novedades en total, no podemos afirmar que todas estas nuevas funciones se puedan usar en los diferentes terminales, aunque sí es seguro que lo hacen en los dispositivos de Google como los Pixel o Nexus. Sobre los dispositivos que se actualizarán esperemos que todas las novedades se puedan utilizar en los di- ferentes modelos de cada compañía aunque no esta- mos seguros de ello ya que cada compañía modifica su sistema y la respectiva versión acorde a las carac- terísticas que posee cada dispositivo, también hoy en día se puede ver que terminales de gama media-alta se actualizan a las últimas versiones de Android. 4. REFERENCIAS BIBLIOGRÁFICAS Álvarez, R. (2017).Android oreo la versión 8.0 es ofi- cial. Recuperado de https://www.xataka.com/ moviles/android-oreo-la-version-8-0-del-siste- ma-operativo-movil-de-google-es-oficial Anónimo. (2017). Android. Recuperado de https:// www.android.com Anónimo. (2017). Android 8.0 Oreo ya es oficial: es- tas son sus 23 novedades más destacadas. Re- cuperado de https://www.xatakandroid.com/ Anónimo. (2017).Android 8.0 Oreo: nuevas funcio- nes, más seguridad y mejor gestión de batería. Recuperado de http://www.eleconomista.es/tecnologia/noti- cias/8563776/08/17/Android-80-Oreo-nue- vas-funciones-mas-seguridad-y-mejor-ges- tion-de-bateria.html. Anónimo. (2017) Cómo es Android Oreo y cuándo lle- gará a tu celular. Recuperado de http://www. bbc.com/mundo/noticias-41011752 García, M. (2012).La historia del logo de Android. Recuperado de http://www.brandemia.org/la- historia-del-logo-de-android Garzon, J. (2016). Android 8.0 Oreo ofrece más flui- dez, actualizaciones más rápidas y otras nove- dades. Recuperado de: https://www.cnet.com/ es/analisis/android-o/primer-vistazo/ Herrera, N. (2017).Android 8.0 Oreo: Todas sus ca- racterísticas y novedades. Recuperado de ht- tps://androidphoria.com/novedades/caracristi- cas-novedades-requisitos-android-8-0-oreo Jiménez, E. (2017).¿Paga Oreo para ser el nombre de Android 8.0?Recuperado de https://an- droidayuda.com/2017/08/22/paga-oreo-nom- bre-android-8-0/ Nieto, A. (2011). ¿Qué es Android? Recuperado de https://www.xatakandroid.com/sistema-opera- tivo/que-es-android Pérez, D. (2017). Todos los pequeños detalles y fun- ciones de Android 8.0 Oreo. Recuperado de ht- tps://elandroidelibre.elespanol.com/2017/08/ detalles-y-funciones-de-android-8-oreo.html. Vayo, A. (2017). Android 8.0: las características del nuevo sistema empiezan a filtrarse. Re- cuperado de https://elandroidelibre.elespanol. com/2017/03/android-8-oreo-caracteristicas rumores.html.
  • 36.
    19 APLICACION DE IMÁGENES2D, 3D Y HOLOGRAMAS EN CAMPOS DEL CONOCIMIENTO Alvaro L. Muruchi, Edison Clavijo, Leandro Góngora muruchi-alvaro123@outlook.com, crisgongor7@gmail.com, edi_clavijo756@hotmail.com Universidad Mayor De San Andrés Carerra De Informática RESUMEN La Computación Gráfica nace con SAGE, en 1955 la cual es una máquina que se creó durante la Guerra Fría por el ejército de los Estados Unidos para rastrear a las naves aéreas. Hoy es una rama de la ciencia de la computación, que estudia al conjunto de técnicas que nos permiten la representación de los objetos mediante el uso de computadoras y a su vez herramientas o aplicaciones que se relacionan con el campo de la geometría, la térmica, la óptica, etc. La computación gráfica también comprende una gran variedad de técnicas que pueden ser agrupadas de acuerdo al número de dimensiones que se utilizan en la representación del modelo grafico a visualizar, ya que este puede ser en 2D, 3D y también un Holograma. Las imágenes bidimensionales y tridimensionales ayudan a proporcionar escenas vivas y naturales como si los ambientes de la simulación realmente existieran, haciéndose herramientas valiosas para muchas aplicaciones como la visualización médica, investigación científica, entretenimiento, arquitectura, anuncios publicitarios, computación tridimensional, sistemas de realidad virtual, área industrial y militar entre otros. PALABRAS CLAVE: Computación gráfica, Modelo geométrico, Holografía, AutoCAD. 1. INTRODUCCIÓN Durante el transcurso del tiempo el hombre ha estu- diado los fenómenos fisiológicos y psicológicos que le permiten capturar y procesar el mundo que le rodea; Hace varios siglos se originó el desarrollo de diversos métodos artísticos para plasmar distintos tipo de esce- nas que ha vivido el hombre, con los avances tecnoló- gicos, buscamos mejorar cada vez más ese método de plasmar escenas como se hacía en siglos pasados, ya sea para atraer al espectador en un mundo tridimen- sional o en su propósito transportarlo a un lugar más allá de su imaginación, como también usarlo como he- rramienta para un buen aprendizaje mediante diversas formas de proyectarse una imagen. Este trabajo tiene con finalidad dar una descripción yuna mirada a lo que se conoce como el campo de la informática visual, donde se utilizan computadoras para generar imágenes visuales y espaciales del mun- do real así también en el ámbito profesional y de la vida diaria para aquellas personas interesadas en la vida tecnológica más allá de lo que se percibe a pri- mera vista. 2. DESARROLLO 2.1. HISTORIA DE LA COMPUTACIÓN GRÁ- FICA La Computación Gráfica nace con SAGE (Semi-Au- tomatic Ground Environment), en 1955 la cual es una máquina que se creó durante la Guerra Fría por el ejército de los Estados Unidos para rastrear a las naves aéreasqueingresabanalespacioaéreonorteamericano. Esta máquina se integró a los sistemas de radar de esa época para así proporcionar la primera aplicación de computación gráfica interactiva. Según Mejia A. (2013) afirma “El uso de gráficos de ordenador se puede remontar tan atrás como 1940, cuando Jay Forrester en el MIT un equipo diseñado para la formación de nuevos pilotos. La computadora digital fue elegida como el instrumento ideal. Debi- do a su adaptabilidad y festividad con que la maquina puede ser programada.” (Mejia Arpushana, 2013) 2.1.1. COMPUTACIÓN GRÁFICA Según Santos, (2009) que La computación gráfica es una rama de la ciencia de la computación, que estudia al conjunto de técnicas que nos permiten la represen- tación de los objetos mediante el uso de computadoras y a su vez herramientas o aplicaciones que se rela- cionan con el campo de la geometría, la térmica, la óptica, etc. Ya sea para representar imágenes visuales como también espaciales del mundo real. Según Rivara, (2010), que una de las tecnologías que nos permiten dibujar primitivas cosas como ser pun- tos, líneas, polígonos, curvas, texturas, iluminación, etc. es Direct 3D así también nos permite realizar un conjunto de operaciones gráficas. “
  • 37.
    20 Según Suares, (2013)afirma “La computación grafica es el arte y la ciencia de comunicar información usan- do imágenes que son generadas y presentadas a través de la computación, se dedica al estudio y desarrollo de procesos que permitan el tratamiento automático de la información gráfica.” (Suares , 2013) 2.1.2. REPRESENTACIÓN 2D Y 3D En la actualidad, los gráficos que se generan mediante la computadora pueden ser utilizados a una gran va- riedad de aplicaciones, como en interfaces gráficas de usuario, tipografía digital, paseos arquitectónicos virtuales, aplicaciones médicas y juegos de vídeo, etc. La computación gráfica comprende una gran variedad de técnicas que pueden ser agrupadas de acuerdo al número de dimensiones que se utilizan en la repre- sentación del modelo grafico a visualizar, ya que este puede ser en 2D, 3D y también un Holograma. Según Suares , (2013) afirma” Actualmente en todas las áreas es posible aplicar gráficas por computadora con algún objetivo particular o genérico, por ello se ha generalizado la utilización de gráficas por computado- ra. De igual modo las gráficas por computadora se uti- lizan de manera rutinaria en diversas áreas facilitando la expresión de alguna concepto, idea o problema, así como plantear la solución, tales como en la ciencia, ingeniería, empresas, industria, gobierno, arte, entre- tenimiento, publicidad, educación, capacitación y pre- sentaciones gráficas.” (Suares , 2013) 2.1.3. Computación gráfica 2D Según Vidal, (2012) afirma, que” corresponde al con- junto de técnicas utilizadas que tienen como objeto la generación de una imagen digital a partir de varios modelos geométricos bidimensionales, y que estas técnicas son principalmente empleadas en interfaces gráficas de usuario y en aplicaciones desarrolladas a partir de tecnologías de impresión y dibujo, como ti- pografía, cartografía y dibujo técnico, entre otras; El origen de las mismas se remonta a la década de los 50’s en la que aparecieron dispositivos con soporte para gráficos vectoriales.” Según Charalambos J. (2016) afirma, que” Los gráfi- cos 2D por computadora se han iniciado en la década de 1950, basándose en dispositivos de gráficos vec- toriales. Éstos fueron suplantados en gran parte por dispositivos basados en gráficos raster en las décadas siguientes. El lenguaje PostScript y el protocolo de sistema de ventanas X fueron piezas claves en la evolución histórica del campo.” ( Charalambos, 2016) 2.1.4. Computación gráfica 3D Según Calderón, (2011) afirma que “la computación gráfica en 3D trata sobre la forma de reemplazar una imagen bidimensional a partir de modelos geométri- cos tridimensionales. De acuerdo con la complejidad que se genera por medio de un proceso de cálculo ma- temático sobre formas geométricas 3D originadas en un ordenador. El estudio de las condiciones fisiológicas del ser hu- mano le generó diversas propuestas de fotografía con el que lograron proyectar el volumen de un objeto o incluso escenas completas. Hoy en día algunos con- ceptos de este tipo de fotografía aún son utilizados por los científicos y artistas de todo el mundo, adaptándo- los de buena forma a la tecnología de nuestro tiempo, aunque estas aún presentan algunos problemas para lograr un efecto total. Las visualizaciones estereos- cópicas, Basadas en paralaje binocular pueden causar confusión visual, fatiga y dolor de cabeza en tiempos de exposición prolongados inducidos por las incon- sistencias en la información visual de la imagen 3D. Estas visualizaciones de volumen, Generan imágenes tridimensionales basadas en puntos de luz organiza- dos en un espacio 3D por medio de un escaneo óptico constituido por componentes mecánicos, pero no pue- den proveer imágenes muy convincentes debido a que se hace una reproducción de color limitada y pobre debido a oclusiones.” “Un gráfico 3D difiere de uno bidimensional princi- palmente por la forma en que ha sido generado. Este tipo de gráficos se originan mediante un proceso de cálculos matemáticos sobre entidades geométricas tridimensionales producidas en un ordenador, y cuyo Figura 1. Comparación de una imagen realista con una imagen vectorial en 2D, Fuente: Charalambos J. (2016).
  • 38.
    21 propósito es conseguiruna proyección visual en dos dimensiones para ser mostrada en una pantalla o im- presa en papel.” (Tran, 2017) Figur 2. primera animacion 3D(1972) Fuente: Miguel P.(2016) 2.1.5. HOLOGRAFIA La holografía se puede describir en pocas palabras como un sistema de fotografías tridimensionales, sin el uso de lentes para formar la imagen. El holograma hace referencia también a un tipo de fe- nómeno del ámbito visual o de la fotografía mediante el cual el tratamiento que recibe una imagen respecto de la luz hace que parezca tridimensional por contar con varios planos al mismo tiempo. La holografía es una técnica de la fotografía que se interesa justamente por lograr este efecto y que es particularmente común hoy en día en lo que respecta a la creación de imáge- nes tridimensionales para el cine o el video. Figura 3. Proyección de hologramas, facilitando el aprendi- zaje de los alumnos. Fuente: Bejerano, (2013). Según Guerra, (2013) afirma “La holografía es una técnica avanzada de fotografía, que consiste en crear imágenes tridimensionales. Para esto se utiliza un rayo láser, que graba microscópicamente una película fotosensible. Ésta, (…), proyecta una imagen en tres dimensiones. La holografía fue inventada en el año 1947 por el físico húngaro Dennis Gabor, (…).” (Gue- rra, 2013) 2.2. APLICACIONES DE LA COMPUTACIÓN GRÁFICA Actualmente existen muchas aplicaciones, donde se desarrolla la computación grafica ya sea en campos como: la ingeniería, investigación científica y demás que requieren una gran cantidad de recursos compu- tacionales. La Computación Gráfica también cubre áreas muy diversas, que abarcan desde la visualiza- ción científica, hasta el arte y el tratamiento fotográ- fico. • Interfaces Gráficas de Usuario • Medicina • Diseño Asistido por Computadora (CAD: • Multimedios (educativos) 2.3. IMPLEMENTACION DE LAS GRÁFICAS 2D 3D y HOLOGRAMAS EN DIFERENTES ÁREAS El Beneficio más grande que aporta la implementa- ción de gráficos en campos del conocimiento se en- cuentra en el ambiente educativo, ya que mediante una imagen podemos representar una gran cantidad de información a quienes requieran aprender de ello. Un ejemplo muy claro seria para la generación de labo- ratorios virtuales, simuladores de vuelos para pilotos, medicina, etc. Según Turmero, (2014) Afirma “La computación grá- fica es ahora una parte importante de la industria del entretenimiento. La industria del entretenimiento jue- ga muchos otros roles importantes en el campo de la computación gráfica.” 2.3.1. Geografía Es usado para representar en 3D zonas geográficas e inclusive réplicas de ciudades con la posibilidad de explorarlas como si el usuario estuviera caminando en dichos lugares. En este campo tenemos al llamado sis- tema de información geográfica también conocido con los acrónimos SIG el cual es un conjunto de herramientas que relaciona diversos componentes que permiten la organización, análisis y modelización de grandes cantidades de datos procedentes del mundo real que facilita la toma de decisiones de una manera más eficaz en su trabajo. Según Wikipedia, (2017) afirma “En el sentido más estricto, es cualquier sistema de información capaz de integrar, almacenar, editar, analizar, compartir y mostrar la información geográficamente referenciada. En un sentido más genérico, los SIG son herramien-
  • 39.
    22 tas que permitena los usuarios crear consultas inte- ractivas, analizar la información espacial, editar da- tos, mapas y presentar los resultados de todas estas operaciones.” (Wikipedia, 2017) 2.3.2. Animación de personajes “En personajes humanos y animales, muchas partes del modelo de su esqueleto, corresponden a la ubica- ción real de los huesos. Esto se ha empleado para la realización de películas animadas. Animaciones 2D: Es una forma de animación que representa elementos que se despliegan en un sistema de coordenadas de dos dimensiones.” (Plaja, 2014) 2.3.3. Diseño Industrial En el campo de la industria se esquematizan piezas industriales y máquinas más complejas para su fabri- cación. Según Bonilla , (2003) afirma “Es posible encontrar en el mercado aplicaciones específicas para un cam- po concreto junto con aplicaciones de tipo general. Se trata básicamente de editores de modelos geométri- cos, sobre los que se pueden acoplar módulos de simu- lación o cálculo específicos para un campo concreto. Este último es el caso de AUTOCAD, 3D-Studio y MICROSTATION.” (Bonilla , 2003) Figura 4: Trabajo de Diseñadores industriales Fuente: Magnus, (2012). 2.3.4. Aeronáutica “Los simuladores de vuelo son sistemas que son desa- rrollados tanto para la educación como para el entrete- nimiento. Intentan replicar la experiencia de volar una aeronave, de la forma más precisa y realista posible. Existen réplicas de cabinas en tamaño real montadas en accionado res hidráulicos o electromecánicos con- trolados por sistemas computarizados” (Suares, 2013). 2.3.5. Videojuegos En la década de los ochenta los videojuegos tenían in- terfaces graficas que se agrupaban por áreas cada una de ocho por ocho pixeles cada una. Figura 5: Diseño y Creación de Videojuegos a partir de modelos 2D y 3D, Fuente: Navarra, (2017). Según Zahumenszky, (2107) Afirma “Finalmente, los desarrolladores de aquella época hacían uso intensivo de una técnica llamada Sprites que permitía introducir elementos fijos en la pantalla activando una serie de píxeles. Esta técnica se usó mucho para generar, por ejemplo, escenarios estáticos en videojuegos. El pro- pio Mario de la NES estaba compuesto de cuatro de estos sprites. Hoy se fabrican los videojuegos con gráficas cada vez más realistas una de las aplicaciones más frecuentes es Unity 3D.” 2.3.6. Arquitectura Se usa la computación gráfica en esta área para brin- dar soluciones gráficas a estudios de arquitectura, apo- yo a grupos de desarrollo inmobiliario y particulares que requieran dichos servicios. Según Lambach, (2001) Afirma” Sin embargo, son relativamente pocos los arquitectos y diseñadores que se animan a embarcarse en la generación de esos in- sumos, que, paradójicamente, suelen ser muy impor- tantes a la hora de presentar y vender un proyecto.” ( Lambach, 2001) 2.3.7. Medicina En este campo la implementación de gráficos 3D apo- ya de gran manera en el estudio médico donde por me- dio de estas animaciones se pueden observar células, tejidos, sistemas, anatomía, fisiología, neurología. Lo que también les llevo a relacionarse con la impresión en 3D. Según Vazhnov, (2017) afirma “El uso de impresión 3D en prótesis está avanzando rápido. En el año 2012 por primera vez hicieron un trasplante de una mandí- bula impresa en titanio. Hoy, trasplantes de este tipo ya no son una novedad y existen muchos casos exi- tosos de trasplantes de caderas, mandíbulas y otras
  • 40.
    23 partes del cuerpo.Más importante aún es que desde que aparecieron las impresoras 3D de bajo costo, las personas fuera del campo médico empezaron a expe- rimentar e inventar sus propias soluciones.” (Vazhnov, 2017) Figura 6. Aplicación de imágenes 3D en el campo de la medicina para su mejor estudio Fuente: (Suares, 2013). 2.3.8. Deportes En este campo con la de gráficos en 3D se puede hacer un análisis del desempeño de los atletas. Según Sierra, (2017) afirma que “La tecnología está muy presente en el mundo del deporte. El ojo de hal- cón, por ejemplo, es una técnica valiosísima en el te- nis. Gracias a estas cámaras, que generan un mapa 3D de la pista y recrean la trayectoria de la bola, ahora es más fácil que nunca cantar in o out. La idea sur- gió al reflexionar sobre el hecho de que en el fútbol los jugadores no siempre dicen la verdad para jugar el máximo posible. Esta aplicación es capaz de encon- trar asimetrías térmicas, las cuales indican sobrecar- gas o riesgo de lesión.” 2.3.9. Antropología En este campo lo que más se utilizan son los dibujos ya que los rasgos, atributos e indicadores selecciona- dos se transforman una vez combinados en categorías discriminantes, que le sirven de guía y razonador ana- lítico a quien los utilice. Con esto se intenta dar a conocer las construcciones más sorprendentes de la humanidad. Según Garavaglia, (2015) afirma “El dibujo tiene la ventaja de lograr una comunión íntima del investiga- dor con el objeto. Esto implica un conocimiento más detallado que a veces comporta verdaderos descubri- mientos y, por eso mismo, contribuirá también al de- sarrollo del cuestionario (…) pasando, de este modo, de un Lenguaje Natural a un Lenguaje Descriptivo, que permite explicitar las convenciones utilizadas sea cual fuere la unidad de referencia empírica.” (Garava- glia, 2015 )3. CONCLUSIONES Los gráficos en 2D, 3D y Hologramas pueden servir en muchos campos del conocimiento ya sea en pro- ductos electrónicos, ropa, alimentos que es lo que más consumen las personas de nuestra generación. Este campo de la computación grafica es una vía muy eficaz para la promoción de productos ya que estos sistemas pueden ser adquiridos fácilmente por nego- cios transnacionales y locales, además de tener un gran rendimiento en la difusión de la misma en dis- tintas redes. Al tener un conocimiento solido sobre estos gráficos la sociedad aceptaría de forma muy amable la imple- mentación de estos sistemas porque ayuda mucho en cuanto a educación nos referimos ya que es muy di- dáctico y facilita el aprendizaje. 4. REFERENCIAS BIBLIOGRÁFICAS Bejerano, P. G. (17 de Julio de 2013). Blogthinkbig. com. Obtenido de Hologramas gigantes con fines educacionales: https://blogthinkbig. com/hologramas-gigantes-educacion Bonilla , A. (2003). GUIA TECNOPYME. Fase II. . Zamudio. Calderón, J. (2011). Proyector de Imágenes virtuales en dos y tres. San Francisco. Charalambos, J. (18 de Enero de 2016). Wikipedia. Obtenido de Computación gráfica 2D: ht- tps://es.wikipedia.org/wiki/Computaci%- C3%B3n_gr%C3%A1fica_2D Guzman, D. (15 de Septiembre de 2017). Wikipedia. Obtenido de Gráfico vectorial: https://es.wi- kipedia.org/wiki/Gr%C3%A1fico_vectorial Garavaglia, M. (09 de Junio de 2015). NAYA. Obteni- do de Sobre el uso de imágenes gráficas en la investigación antropológica. Un acercamien- to a la Antropología Visual.: http://www. equiponaya.com.ar/congreso/ponencia1-19. htm Guerra, N. (15 de Noviembre de 2013). monografias. com. Obtenido de La holografía: http://www. monografias.com/trabajos98/holografia/ho- lografia.shtml#ixzz4wH4YsxOC
  • 41.
    24 Lambach, G. (2001).GRÁFICOS 2D Y 3D CON SOFTWARE GRATUITO. Obtenido de http://www.sau.org.uy/content/2d3d.pdf Magnus. (12 de octubre de 2012). wikimedia . Ob- tenido de Diseñadores Industriales: https:// es.wikipedia.org/wiki/Dise%C3%B1o_in- dustrial#/media/File:1961_AMC_PRfoto_ Designers.jpg Mejia, C. (20 de Febrero de 2013). Historia de la com- putacion grafica. universidad popular del ce- sar, pag-2: trabajo monografico. Miguel, P. (08 de junio de 2016). Wikipedia. Obteni- do de Primera animación 3D en el mundo: https://es.wikipedia.org/wiki/Gr%C3%A1fi- cos_3D_por_computadora#/media/File:Pri- mera_animaci%C3%B3n_3D_en_el_mun- do.jpg Navarra. (25 de octubre de 2017). creanavarra. Obte- nido de CARRERA OFICIAL EN DISEÑO Y CREACIÓN DE: http://www.creanavarra. es/carreras/diseno-y-creacion-de-videojue- gos/ Rivara, M. (2010). Downloads. Obtenido de Compu- tación Gráfica: file:///C:/Users/casa/Down- loads/Introduccion_CG_2010%20(2).pdf Santos, A. (15 de AGOSTO de 2009). COMPUTA- CIÓN GRÁFICA. Obtenido de http://com- putaciongrafic.blogspot.com/2009/08/defini- cion-de-computacion-grafica.html Sierra, M. M. (22 de Febrero de 2017). univer- sia.es. Obtenido de 3 avances tecno- lógicos aplicados al deporte: http:// noticias.universia.es/ciencia-tecnologia/noti- cia/2017/02/22/1149774/3-avances-tecnolo- gicos-aplicados-deporte.html Suares , A. (05 de septiembre de 2013). Graficación. Obtenido de Aplicaciones de la Computa- ción Gráfica: http://graficacionito.blogs- pot.com/2013/09/11-aplicaciones-grafi- cas-por-computadora.html Tran, G. (10 de Agosto de 2017). Wikipedia. Obte- nido de Gráficos 3D por computadora: ht- tps://es.wikipedia.org/wiki/Gr%C3%A1fi- cos_3D_por_computadora Turmero, P. (20 de Octubre de 2014). monografias. com. Obtenido de La computación gráfica y sus aplicaciones: http://www.monografias. com/trabajos105/graficacion-computadora/ graficacion-computadora.shtml Vazhnov, A. (2017). BAIKAL INSTITUTO. Obteni- do de IMPRESION 3D: http://institutobai- kal.com/libros/impresion-3d/mover-mate- ria-en-el-espacio/ Vidal Ostos, A. (28 de Mayo de 2012). Computación Grafica. Obtenido de Computación gráfi- ca 2D y 3D: http://compgrafusm.blogspot. com/2012/05/normal-0-21-false-false-false- es-co-x_07.html Wikipedia. (16 de Octubre de 2017). Wikipedia. Obtenido de https://es.wikipedia.org/wiki/ Sistema_de_informaci%C3%B3n_geogr%- C3%A1fica Zahumenszky,C.(2107).GIZMODO. ObtenidodeAsí funcionaban los gráficos de tus juegos favo- ritos en los años 80: http://es.gizmodo.com/ asi-funcionaban-los-graficos-de-tus-jue- gos-favoritos-en-1725014252
  • 42.
    25 BIOIMPRESIÓN 3D: LOQUE HAY Y LO QUE VENDRÁ Choque Callizaya Gabriel Alejandro, Javieri Vino Douglas Cristhian, Villegas Yujra Pablo lgabrielalejandro6480@gmail.com, douvan.22@gmail.com, villegas.yujra.pablo@gmail.com Universidad Mayor de San Andrés Carrera de Informática Gramática Española RESUMEN La inteligencia artificial ha sido creada para diseñar maquinas inteligentes, chips artificiales que son el ce- rebro de la máquina, el que logra que piense y hablen por si solos, La tecnología hoy en día tiene que es- tar más atenta en las innovaciones que el ser humano logra y más en el campo de la medicina, un equipo experto liderados por Anthony Átala lograron impri- mir órganos humanos gracias a la impresora 3D, sin duda es una innovación tecnológica que esta revolu- cionado el mundo entero. El implante de órganos y prótesis avanzadas hoy puede ser más fácil de con- seguirlas gracias las impresiones humanas, algo que podría cambiar el mundo y sin duda cambiar las vidas de muchas personas, un gran aporte al mundo de la tecnología y de la medicina. Palabras clave: Célula, tecnología, órganos, medici- na, bioimpresion. ABSTRACT Artificial intelligence has been created to design in- telligent machines, artificial chips that are the brain of the machine that makes them think and speak for themselves, Technology today has to be more atten- tive in the innovations that the human being achieves and more in the field of medicine, an expert team led by Anthony Átala were able to print human organs thanks to the 3D printer, it is certainly a technological innovation that revolutionized the whole world. The implantation of organs and advanced prostheses today may be easier to obtain thanks to human impressions, something that could change the world and without a doubt change the lives of many people, a great contri- bution to the world of technology and medicine. Keywords: Cell, technology, organs, medicine, bio- impresion. 1. INTRODUCCIÓN El uso de la tecnología en la medicina apunta muy alto y da un gran paso con las impresoras 3D, Ofrece un espacio a la bioimpresion para producir mo- delos físicos, el equipo de científicos y médicos de la Wake forest dirigidos por el señor Anthony Átala lo- graron crear la maquina ITOP quien logra imprimir de manera excepcional órganos, huesos y tejidos hechos con materiales biológicos, papeles creados para estar dentro de una persona y que no cause ningún efecto secundario.Anthony abrió primer laboratorio comer- cial relacionado con la industria el organovo creando así nuevos modelos de bioimpresoras dando a conocer nuevas innovaciones de artefactos muy utilizados en la sociedad y requeridas por muchas personas. An- thony dio un gran salto al utilizar la bioimpresión en seres vivos implantados órganos y brindando prótesis personas, aunque la bioimpresion no es muy conocida por falta de información e entendimiento es una gran invención que esta revolucionado el mundo entero. 2. DESARROLLO La bioimpresión, es el proceso de creación de estruc- turas celulares gracias al uso de una impresora 3D es- pecializada, esto permite el futuro desarrollo de estas células en un órgano funcional. La bioimpresión es uno de los desarrollos de la industria 3D que más crecimiento e innovaciones ha tenido en los últimos años, hasta ahora el mercado se ha centrado principalmente en Norteamérica, pero hay muchas empresas y universidades en el mundo que están trabajando en este campo. Una de las grandes posibilidades de esta tecnología, y que esperan conseguir todos los grandes actores de la industria, es el desarrollo de órganos impresos en 3D creados a partir de las células del paciente, lo que aumentaría considerablemente el éxito de cualquier trasplante. El primer desarrollo de la bioimpresión se remonta a 1988 cuando el Dr. Robert J. Klebe de la Universidad de Texas presentó su proceso de Cytoscribing, un mé- todo de micro posicionamiento celular para construir tejidos sintéticos de dos y tres dimensiones utilizando una impresora de inyección de tinta común. Siguiendo los desarrollos de Klebe, en 2002 el profesor Anthony Atala de Wake ForestUniversity creó el primer riñón a pequeña escala utilizando una técnica de bioimpre- sión.
  • 43.
    26 En 2010 llegóOrganovo, el primer laboratorio comer- cial relacionado con la industria, desde sus inicios esta empresa comenzó a trabajar con Invetech, para desa- rrollar una de las primeras bioimpresoras del mercado, la NovoGen MMX. Desde entonces, Organovo se ha posicionado como el líder de la industria, y según va- rios estudios todo parece indicar que lo seguirá siendo hasta 2022. Sólo en los últimos años ha anunciado que ha comenzado el desarrollo del tejido óseo y ha logra- do crear tejido hepático trasplantable. Figura1. Huesos impresos en 3D Fuente:(Klebe, 1988) 2.1 TÉCNICAS DE BIOIMPRESIÓN Aunque se hayan conseguido grandes avances dentro de la industria, no es necesario ser experto para darnos cuenta que la industria aún está dando sus primeros pasos, conseguir imprimir órganos humanos funcio- nales no es una tarea fácil. Actualmente han consegui- do desarrollar cinco principales técnicas de bioimpre sión con diferentes posibilidades: 2.1.1 BIOIMPRESIÓN DE INYECCIÓN DE TIN- TA Los científicos han hecho grandes avances en el pa- trón de moléculas, células y órganos con la impresión de inyección de tinta. Moléculas como el ADN se ha duplicado con éxito, lo que facilita el estudio de los problemas de cáncer y su tratamiento. Células que ayudan al cáncer de mama también puede ser impre- sas y conservar sus funciones, con buenas perspecti- vas para la creación de estructuras de tejidos vivos. Organovo utiliza la impresión por inyección de tin- ta para crear tejidos humanos funcionales. Específi- camente, están interesados en reproducir tejido del hígado humano. Lo que Organovo intenta hacer es repare alguna parte dañada del hígado del paciente mediante la implantación del tejido, esta solución pro- longaría la vida del órgano hasta que el paciente sea elegible para un trasplante. Figura 2. Huesos impresos en 3D Fuente:(Anónimo, s.f.) 2.1.2 BIOIMPRESIÓN ASISTIDA POR LÁSER Una fuente láser, una cinta recubierta con materiales biológicos que se depositan sobre una película y un receptor. Los rayos láser irradian la cinta, haciendo que los materiales biológicos líquidos se evaporen y lleguen al receptor en forma de gotas, éste contiene un biopolímero que mantiene la adhesión celular y ayuda a las células a comenzar a crecer. En comparación con otras tecnologías, la bioimpresión asistida por láser tiene ventajas únicas, incluyendo un proceso libre de boquillas, libre de contacto, impresión celular de alta actividad y alta resolución, control de gotitas de bioin- tinta y características de impresión precisas. Figura 3. Huesos impresos en 3D Fuente:(García, 2016) 2.1.3 ESREOLITOGRAFÍA La tecnología SLA consiste en la solidificación de un fotopolímero a través de la iluminación y tiene la ma- yor precisión de las tecnologías de fabricación aditiva. Esta puede ser aplicada en bioimpresión imprimien- do con hidrogeles sensibles a la luz. Esta tecnología está todavía en desarrollo, ya que además de las venta- jas de la misma, se relacionan con numerosas restric- ciones, como la falta de polímeros biocompatibles y biodegradables, los efectos nocivos y la imposibilidad de eliminar la estructura portante.
  • 44.
    27 2.1.4 BIOIMPRESIÓN PORONDAS ACÚSTI- CAS Utiliza algo que es llamado pinzas acústicas, un dis- positivo microfluídico donde se pueden manipular células o partículas individuales, y el uso de ondas acústicas superficiales. Las ondas se encontrarían a lo largo de cada uno de los tres ejes. En estos puntos de encuentro, las ondas formaran un nodo de captura tri- dimensional. Las células individuales o los conjuntos completos de ellas se recogen para poder crear patro- nes 2D y más tarde en 3D. Esta técnica ofrece una ac- tuación en términos de movimientos precisos de una manera no invasiva. Figura 4. Huesos impresos en 3D Fuente:(BBC Mundo, 2016) Sin duda son las aplicaciones médicas las que más sorprenden. Sin embargo, aunque esta tecnología se está convirtiendo en un tema cotidiano, y especialis- tas de muchos campos vigilan de cerca su evolución, todavía hay miles de personas que aún no conocen su tremendo potencial. A largo plazo, la impresión 3D podría tener un gran impacto en el campo de la medicina, donde la extru- sión de células vivas en lugar de materiales plásticos, por parte de impresoras 3D, ha dado lugar a la bioim- presión. 2.2APLICACIONES 2.2.1 AUDÍFONOS Audífonos existentes en la actualidad se han fabricado usando impresión 3D. Figura 5. Audífonos diseñados en 3D Fuente:(BBC Mundo, 2016) 2.2.2 IMPRESIÓN 3D EN EL DENTISTA Esta tecnología permite tanto obtener un alineador dental transparente impreso en 3D para el uso diario, como implantes, fundas dentales, puentes, y una gran variedad de aplicaciones dentales. Figura 6. Huesos impresos en 3D Fuente:(Sanz, 2015) En primavera de este mismo año, un paciente en EEUU se sometió a una cirugía radical, en la cual el 75% de su cráneo fue sustituido por un implante im- preso en 3D realizado en un material no solo biocom- patible, sino también semejante al hueso. 2.2.3 PRÓTESIS La ortopedia avanza hacia una mayor velocidad en los procesos productivos, y la disminución de los costes. Esto es especialmente importante cuando hablamos de ortopedia infantil, pues las piezas han de ser sustitui- das a medida que los niños crecen, pues se facilita el proceso de creación de estas piezas, a la misma vez que disminuye el esfuerzo económico para reempla- zarlas cuando se necesita . Figura 7. Prótesis Fuente:(Athala, 2014) 2.2.4 OREJA BIÓNICA Se trata de una oreja totalmente artificial, consistente en dispositivos electrónicos, alojados en una estructu- ra biónica: una estructura tridimensional a forma de
  • 45.
    28 esqueleto, con célulascartilaginosas. Dan lugar a una oreja completa. Incluso posee una an- tena extremadamente sensible a las microondas, por lo que esta oreja podría convertirse en un buscador de satélites permitiendo al oído humano escuchar la radio y otras señales electromagnéticas.  Solo tendríamos que proveerla de los nutrientes ne- cesarios para sus células (a través de la vasculariza- ción), y tras ese paso, podríamos crear también la piel y colocarla sobre una cabeza. 2.2.5 CÉLULAS MADRE Las células madre embrionarias son aquellas capaces de mantener su pluripotencial, es decir, de generar posteriormente las características que las diferencia- rán en cualquier otro tipo de célula (óseas, cerebrales, musculares…). La impresión 3D ha permitido que se produzca raci- mos de células madre. El método usado es el de la im- presión basada en válvulas, para mantener estas célu- las en un alto nivel de viabilidad, y producir esferoides de un tamaño uniforme con una precisión adecuada. Figura 9. Imprimiendo células madre Fuente:(Hospimédica, 2010) un modo de imprimir vasos sanguíneos, usando azú- car como “tinta” en una impresora RepRap, los inves- tigadores comienzan a dejar fluir un líquido a través de la estructura vascular y las células comienzan a recibir nutrientes y oxígeno de forma similar a lo que ocurre en la naturaleza. Figura 10. Creando vasos sanguíneos Fuente:(Athala, 2014) Combinando una impresora 3D y la tecnología que mencionábamos antes, de células madre inducidas (iPS) que permiten crear células madre a partir de células ya diferenciadas. Dado que las células madre inducidas se desarrollan a partir de las propias células del paciente, se reducirían las respuestas inmunes al nuevo tejido. La importancia de este descubrimiento radica sobre todo en el tratamiento de heridas de gran extensión, dada la dificultad de encontrar injertos de piel de ciertos tamaños . Figura 11. Una nueva piel, gracias a la impresión 3D Fuente:(Chacal, 2013) 2.2.6 ÓRGANOS IMPRESOS EN 3D La impresión de células de hígado es algo que ya se está llevando a cabo e investigando para la experimen- tación con fármacos. Ya van viéndose avances en esa dirección. El cirujano Anthony Átala mostró en una charla TED de 2011, un experimento en el cual se imprimía un prototipo de riñón humano, capaz de producir una sustancia semejante a la orina. El Instituto Wake Fo- resttrabaja de hecho específicamente en la medicina regenerativa, condiferentes tipos de tejidos: vejiga, cartílago, tráquea, corazón, etc. Las nuevas tecnologías también se pueden utilizar in-
  • 46.
    29 correctamente, y labioimpresión no es la excepción. Si las tecnologías son capaces de desarrollar órganos o tejidos a medida, también existe la posibilidad de desarrollar nuevas capacidades humanas, huesos o pulmones más resistentes que oxigenan de manera diferente. Algo que puede sonar muy atractivo para algunas industrias como la militar, que es igualmente uno de los principales inversores de la industria 3D. En 2014, el mercado de la bioimpresión se valoró en 487 millones de dólares, y espera crecer un 35,9% en- tre 2017 y 2022, superando con creces a muchos de los mercados relacionados con la impresión 3D. Se espera que los principales actores continúen en Norte- américa, siendo Estados Unidos el líder del sector, en Europa serán Reino Unido yAlemania. El crecimiento del mercado se centrará principalmente en el desarro- llo de tejidos y órganos, en los próximos años. Con to- dos estos hechos y el desarrollo médico que se realiza hoy en día, no exageramos al decir que en una década será muy posible hablar de órganos humanos impresos en 3D y su trasplante exitoso, sin duda una de las ma- yores revoluciones médicas de la historia y algo que reafirma que la impresión 3D es la Cuarta Revolución Industrial. 2.3 PROBLEMAS FUTUROS Y ÉTICOS DE LA BIOIMPRESIÓN Las técnicas de bioimpresión buscan desarrollar la llamada “medicina personalizada”, donde los médi- cos serán capaces de adaptar los tratamientos según las necesidades de cada paciente, una preocupación importante dentro de la industria son los costos que esta idea puede plantear y quién podría tener acceso a estas ventajas. Otro problema ético relacionado, es que todavía no es posible probar la eficacia y la segu- ridad de los tratamientos. Después de analizar las di- ferentes técnicas utilizadas, conocemos la posibilidad futura de desarrollar órganos funcionales que puedan sustituir a un órgano humano, pero aún no es posible conocer la seguridad del paciente, si su cuerpo acep- tará el nuevo tejido u órgano creado artificialmente. A todo esto, añadimos las regulaciones legales que de- ben ser creadas antes de que estos desarrollos estén disponibles para un público más amplio. Y aunque suene un poco a una película de ciencia fic- ción, las nuevas tecnologías también se pueden utilizar incorrectamente, y la bioimpresión no es la excepción. Si las tecnologías son capaces de desarrollar órganos o tejidos a medida, también existe la posibilidad de desarrollar nuevas capacidades humanas, huesos o pulmones más resistentes que oxigenan de manera diferente. Algo que puede sonar muy atractivo para algunas industrias como la militar, que es igualmente uno de los principales inversores de la industria 3D. En 2014, el mercado de la bioimpresión se valoró en 487 millones de dólares, y espera crecer un 35,9% en- tre 2017 y 2022, superando con creces a muchos de los mercados relacionados con la impresión 3D. Se espera que los principales actores continúen en Norte- américa, siendo Estados Unidos el líder del sector, en Europa serán Reino Unido yAlemania. El crecimiento del mercado se centrará principalmente en el desarro- llo de tejidos y órganos, en los próximos años. 3. CONCLUSIONES El futuro del futuro es todavía más insondable, pero la imaginación ha resultado ser, en muchas ocasiones, una manera de prever lo que está por llegar. Si es po- sible crear tejidos humanos y órganos desde el orde- nador para su aplicación en los pacientes por parte de un equipo médico en una operación. Una idea imagi- naria, pero hoy en día ya es una realidad Sin duda la tecnología ha avanzado bastante y da un gran salto con la bioimpresión una tecnología que puede cambiar mucho la sociedad beneficiando en gran manera con los aparatos que esta nueva tecnolo- gía puede conseguir. No todo es bueno en esta tecnología ya que no se da a conocer muy bien, muchas personas no la conocen echo que ocasiona una gran desconfianza para esta tecnología generadas por la falta de interés de dar a conocer al mundo esta maravillosa tecnología. Esta tecnología se debe dar a conocerse más en todo el mundo para que vean la gran capacidad y las maravi- llas que puede hacer la bioimpresion, mas operaciones con esta tecnología en humanos ya que hasta hoy en día hay pocos que gozaron de la bioimpresion y de todos sus beneficios, esta tecnología si se maneja y se da conocer bien ayudara a todo el mundo 4.REFERENCIAS BIBLIOGRÁFICAS Anónimo. (2013).9aplicaciones médicas de la impre- sión. Recuperado de: http://impresiontresde. com/9-aplicaciones-medicas-de-la-impre- sion-3d/ Anónimo. (2017).¿Es labioimpresión el futuro de la medicina a medida?Recuperado de:
  • 47.
    30 https://www.3dnatives.com/es/bioimpre- sion-futuro-medicina-180520172/ Anónimo. (2016). AnthonyAtala, el científico pe- ruano que busca un lugar en la historia de la medicina con una impresora. Recupe- rado de:http://www.bbc.com/mundo/noti- cias/2016/03/160315_atala_impresora_orga- nos_am Anónimo. (2016). Órganos fabricados con impresoras 3D más resistentes. Re- cuperado de: http://elmundo .es/salu- d/2016/02/15/56c1f71322601d12128b4582. html Anónimo. (2013). Bio-impresión. La Impresión 3D de Órganos Humanos. Recuperado de: https:// blog.cerebrodigital.org/impresion-3d-de-or- ganos/ De la Nuez, D. (2017). Medicina regenerativa: im- presión de órganos 3D. Recuperado de : http://www.google.com/amp/s/www.vix.c om/es/btg/curiosidades/5031/medicina- regenerativa-impresion-de-organos-en- 3D%Famp García, E. (2016). Huesos y prótesis gracias a la impresión 3D. Recuperado de:http://omi- crono.elespanol.com/2017/06/bioimpre- sion-3d-protesis/ Opazo, P. (2017). 5 formas sorprendentes de apli- car la impresión 3D en la medicina ac- tual. Recuperado de: https://nacionfarma. com/5-formas-sorprendentes-aplicar-la-im- presion-3d-la-medicina-actual/ Pozuelo, V. (2013). Impresoras en 3D que crean ór- ganos: el futuro de la eHealth. Recuperado de:https://blogthinkbig.com/impresoras-en- 3d-que-crean-organos-el-futuro-de-la-eheal- th Sanz, J. (2015). Impresión 3D, Beneficios para la me- dicina. Recuperado de: https://iq.intel.es/im- presion-3d-beneficios-para-la-medicina/ Soleto, N. (2014). La impresión3D en beneficio de la medicina y la salud. Recuperado de: https:// www.jose.neuroname.com/la-impresion-3d- en-beneficio-de-la-medicina-y-la-salud/ Vazhnov, A. (s.f.). Impresión3D Como va a cambiar el mundo. Recuperado de: https://instituto- baikal.com/libros/impresion-3d/mover-ma- teria-en-el-espacio./
  • 48.
    31 COMPUTADORAS CUÁNTICAS UNAPROMESA DE LA TECNOLOGÍA INFORMÁTICA Condori Chávez Eynar, Martínez Quispe Elvis, Choque Condori Luis eynar522@gmail.com, elviskickass@gmail.com, luismerloggg@gmail.com Universidad Mayor De San Andrés Carrera de Informática Gramática Española RESUMEN Las computadoras cuánticas prometen revolucionar la tecnología informática, empleando la mecánica cuán- tica para procesar y resolver problemas millones de veces más rápido que los dispositivos actuales. Una misma tarea puede tener diferente complejidad, en computación clásica y en computación cuántica, ya que problemas intratables pasan a ser tratables, mien- tras que una computadora clásica equivale a una má- quina de Turing. PALABRAS CLAVE: Mecánica Cuántica, Compu- tación Cuántica, Qubit. ABSTRACT Quantum computers promise to revolutionize infor- mation technology using quantum mechanics to pro- cess and solve problems millions of times faster than current devices. The same task may have different complexity of clas- sical computing and quantum computing since intrac- table problems becomes treatable, while a classical computer equals a Turing machine. Keywords: Quantum Mechanics, Quantum Compu- tation, Qubit. 1. INTRODUCCION En 1981, surgió la idea de la computación cuántica, “cuando Paul Benioff expuso su teoría para aprove- char las leyes cuánticas en el entorno de la computa- ción. En vez de trabajar a nivel de voltajes eléctricos, se trabaja a nivel de cuanto” (Molina, 2012). En 1982 Richard Feynman, observó que ciertos proce- sos cuánticos no pueden ser operados eficientemente por una computadora tradicional, donde surge la idea de que aquellos efectos podrían ser utilizados para realizar computaciones en una forma nueva. “En 1985 Feynman, presentó el concepto en una conferencia titulada Quantum Mechanical Computers y así nació este nuevo campo”. (Morales, 2009, p. 25). La mecánica cuantica se trata, de “un concepto de la física que establece que las cosas pueden estar en dos lugares al mismo tiempo” (BBC Mundo, 2017). Al utilizar los principios de la mecánica cuántica “se ha identificado un tipo de máquina que puede estar en más de un estado al mismo tiempo: la computadora cuántica” (Morales, 2009, p. 25). Figura 1. Primer computador cuántico de 51 cúbits. Fuente: (Campillo, 2017) Gracias a este nuevo paradigma de la informática, se espera contar con máquinas capaces de resolver en unos segundos algunos cálculos y analizar millones de datos simultáneamente, lo que llevan años a los orde- nadores de hoy en día; por ello, Google, IBM, Micro- soft y la NASA, entre otros, llevan décadas trabajando en la computación cuántica. La aplicabilidad de la computación cuántica depen- de de la posibilidad de desarrollar una computadora cuántica. Un ejemplo del inmenso poder de las computadoras cuánticas es el algoritmo cuántico para determinar si un número es primo. Una computadora actual se tardaría miles y hasta mi- llones de años (dependiendo de cuan
  • 49.
    32 grande sea elnúmero a factorizar) en ejecutar tal algoritmo ; a diferencia de una computadora cuántica le tomaría tan solo unos cuantos segundos el comple- tar la tarea. 2. DESARROLLO El paradigma y la complejidad de la computación cuántica, es diferente al de la computación clásica, siendo que los qubits reemplazan a los bits. Enton- ces, algunos problemas considerados intratables pa- san a ser tratables. Por lo que, un computador clásico equivale a una máquina de Turing, un computador cuántico equivale a una máquina de Turing cuántica. (Molina, 2012). En la computadora clásica, el bit, es la unidad de for- mación, que tiene el valor de 1 o 0. En cambio, la computadora cuántica, opera con qubits o bits cuán- ticos, por lo tanto, pueden tener toda la combinación de valores: 0 0, 0 1, 1 0 y 1 1 en un mismo momento. Figura 1. Computación cuántica Fuente:( Ossorio, 2016) Bits cuánticos y paralelismo cuantico La unidad mínima de la información es el bit, donde un bit sólo puede tener uno de dos valores, que para efectos prácticos se representa como 1 o 0 (Morales, 2009). En computación cuántica, un bit cuantico o qu- bit, puede estar en ambos de los estados: 0 o 1, ade- más, puede estar en una superposición de dos o más de entre ellos. El paralelismo cuántico, es cuando “el algoritmo cuántico toma un atajo pasando por muchísimos esta- dos al mismo tiempo y volviendo al proceso tradicio- nal únicamente para reportar resultados o para tomar la siguiente entrada.” (Morales, 2009, p. 25) Las computadoras cuánticas, cuentan con un parale- lismo intrínseco, a diferencia de las maquinas clási- cas, que siguen siendo maquinas secuenciales. (Mo- rales, 2009). En la Fig. 2, se ilustra cómo se opera el paralelo sobre cuatro números de un qubit hecho de dos bits físicos. Figura 2. Paralelismo Cuántico Fuente:(Saniz, 2001) Algoritmos cuánticos - Algoritmo de Shor El algoritmo de Shor fue inventado en 1995 por Peter Shor, que factoriza rápidamente grandes cantidades. IBM y la Universidad de Stanford, consiguen ejecu- tar por primera vez el algoritmo de Shor en el primer computador cuántico de 7-qubit desarrollado en Los Álamos. - Algoritmo de Grover Lov Grover ha escrito un algoritmo que usa computa- doras cuánticas para buscar una base de datos sin cla- sificar. Muestra cómo puede realizarse una búsqueda secuencial con computación cuántica y reducir el tiempo que toma a nada más la raíz cuadrada del que tomaría con una computadora tradicional. COMPUTACIÓN CUÁNTICA La comunidad científica dedicada a investigar tópicos en el ámbito de la computación cuántica, ha logrado enormes avances teóricos, al demostrar que es posible reducir drásticamente los recursos computacionales requeridos en la ejecución de algoritmos. Algunos de esos algoritmos requieren un inmenso poder decóm- puto aún en las computadoras más avanzadas de la actualidad. Algunos algoritmos matemáticos como labúsqueda de los factores de números primos, algoritmos de manejo de información como la búsqueda en bases de datos no ordenadas; han sido teóricamente desarrollados con mucho éxito, utilizando los fundamentos de la computación cuántica.
  • 50.
    33 La teoría dela computación cuántica esta basada en las interacciones del mundo atómico y en futura sim- plementaciones de las computadoras cuánticas. Estas aún están en los laboratorios de investigación pero ya se tienen resultados alentadores, como el de- sarrollo de la computadora cuántica de cinco qubits desarrollado por Steffen et al [Steffen01]. El bit cuántico “qubit” El elemento básico de la computación cuántica es el bit cuántico o qubit 1 (quantum bit por sus siglas en inglés), un qubit representa ambos estados simultá- neamente, un “0” y un “1” lógico, dos estados orto- gonales de una sub partícula atómica, como es repre- sentada en la figura 1. El estado de un qubit se puede escribir como {½0ñ, ½1ñ}, describiendo su múltiple estado simultaneo. Un vector de dos qubits, representa simultáneamente, los estados 00, 01, 10 y 11; un vector de tres qubits, re- presenta simultáneamente, los estados 000, 001, 010, 011, 100, 101, 110, y 111; y así sucesivamente. Es de- cir un vector de n qubits, representa a la vez “n”esta- dos. Figura 4. Representación de cuatro estados diferentes de un qubit. [Steffen01] Fuente:(Klebe, 1988) Cualquier sistema cuántico con dos estados discretos distintos puede servir como qubit, un espín de electrón que apunta arriba o abajo, o un espín de fotón con po- larización horizontal o vertical. En la figura 4 se tiene una representación pictórica de cuatro diferentes estados basado en el espín de un núcleo atómico, por lo que puede ser usado como un qubit. Un qubit no puede ser clonado, no puede ser copiado, y no puede ser enviado de un lugar a otro. Es de esperar en los años que vienen, las computado- ras clásicas muestren progresos importantes en cuanto a su capacidad y velocidad. A diferencia de la compu- tación cuántica, que lo haría de manera exponencial. Se estima que los primeros PC cuánticos no se comer- cializarán, como muy pronto, hasta 2025, pero cada vez es más frecuente leer noticias que van despejando el camino hasta llegar a ese momento. Las computadoras cuánticas, se considera que no se- rán de uso general. No es probable que se vea aplica- ciones completas basadas exclusivamente en este tipo de computación. Esto se debe a que en la gran mayoría de problemas en los que nos ayudan estas máquinas hoy en día, se necesita conocer los resultados de cada operación individual. En 2004 científicos del instituto de Física Aplicada de la Universidad de Bonn, publicaron resultados sobre un registro cuántico, por lo que son llamados cúbits por analogía con los bits. Su objetivo era construir una puerta cuántica, con lo cual se tendría los elementos básicos que constituyen los procesadores, que son el corazón de los computadores actuales. Cabe destacar, que un chip de tecnología VLSI (in- tegración a escala muy grande) contiene actualmente más de 100 000 puertas, de manera que su uso prácti- co todavía se presenta en un horizonte lejano. Sin embargo, científicos de los laboratorios Max Planck y Niels Bohr, publicaron en noviembre de 2004, resultados sobre la transmisión de información cuántica a distancia de 100 km, usando la luz como vehículo. Se obtuvieron niveles de éxito del 70%, lo que repre- senta un nivel de calidad utilizar protocolos de trans- misión con autocorrección. Actualmente se trabaja en el diseño de repetidores, que permitirán transmitir la información a distancias mayores a las ya alcanzadas. En 2016, Intel trabaja en el dominio del silicio por el primer ordenador cuántico, en mayo de 2017, IBM presenta un nuevo procesador cuántico comercial. El más potente hasta la fecha es de 17 cúbits, no obs- tante, un grupo de investigadores rusos y estadou- nidense, desarrollaron un potente sistema 51 cúbits, algo inédito hasta la fecha, esta computadora supera ampliamente el procesador de 17 cúbits de IBM del que tanto se habló en el último tiempo y con el cual se
  • 51.
    34 están llevando adelantepruebas. Es incluso más potente que el chip de 49 cúbits, con el cual se estaría trabajando dentro del laboratorio cuán- tico de Google. Por unos 3.8 millones de euros puedes adquirir un or- denador cuántico. D-Wace, una empresa canadiense, ya ha comercializado algún modelo. 3. CONCLUSIÓN Los ordenadores cuánticos se basan en el uso de los cúbits (bits cuánticos) en lugar de bits, y da lugar a nuevas puertas lógicas que hacen posibles nuevos al- goritmos. Poseen una capacidad de cálculo muy superior a los computadores actuales gracias al paralelismo masivo (exponencial) debido a la superposición de estados en los cúbits. También propone un desenvolvimiento en el campo de la criptografía y en las factorizaciones grandes de números primos que amenaza la seguridad en comuni- caciones encriptados que emplean muchas empresas. Las computadoras cuánticas, es un campo en el que queda mucho por descubrir. 4.BIBLIOGRAFIA BIBLIOGRAFICAS Amas, C. (1960). Introduccion a los Algoritmos Geneticos . Mexico. Boole, G. (1860). A Triese on the Calculus of Infinte . Reino Unido: Cork. Boole, G. (1954). An Investigaion of the Laws of Thought, on Which Are founded the Mathematical . New York: Dover Publi- sher. Coello, C. (1997). Taller de Aprendizaje. Mexi- co. Espinar, C. (1938). A symbolic analysis of realy and switching circuits. Estados Unidos : Transactions of the AIEE. Goldberg, D. (1989). Genetic Algorithms in Search Optimization and Machine. Scotland: Edinburgh . Herbert, S. (2001). Java 2:Manual de referncia . España: mcGraw Hill. Kalganova, T. (2000). Envolvable Hardware Design of Combinational. Scotland : Napier University. Koza, J. (1992). Genetic Programing. Massa- chusetts: Longman Inc. Lopez, I. G. (2000). Obtencion de la forma de la Superficie Esferica a apartir de radios de Curvatura Locales. Mexico: Univer- sidad Tecnologica de Mixteca. Miranda, G. (2005). Manual de Java . Obtenido de server2.ok.cl/java/index.html morris, m. (1987). diseño digital . Mexico: pren- tice hall. Soria, `. P. (2008). Circuito Combinacional y sus Aplicaciones . Obtenido de severv/com- bi/aplicaciones/estadosunidos334&ffg/ nij.html
  • 52.
    35 DESENCRIPTACION DE CANALESSATELITALES Apaza Villca Sergio Juan, Choque Ticona Caleb, Villalobos Quispe Henry Jordan sergioapaza30@gmail.com, calebchoqueticona@gmail.com, henry_emdth@yahoo.com Universidad Mayor de San Andrés Carrera de Informática Gramática Española RESUMEN La liberación de canales por medio de IKS es una forma de ver canales de televisión satelitales, esto sin representar ningún costo por adquirir este servicio, es decir este servicio es de forma gratuita, ya que como se mencionó que el servicio es gratuito el único costo que se debe realizar es el de adquirir los equipos necesarios para realizar este fin, la liberación de estos canales se pueden obtener por diferentes medios como ser el sistema SKS, siendo este método el menos utilizado ya sea por empresas que brindan este servicio o por un usuario aficionado al mundo de las telecomunicaciones, siendo un método antiguo por el hecho de que necesitaría hardware adicional sin mencionar que este método a día de hoy no resulta ser tan eficaz. Siendo el sistema IKS como algún tipo de llave electrónica que nos permite la liberación de canales satelitales, a diferencia del sistema SKS este a día de hoy sigue siendo un sistema eficaz y estable, esto dependiendo de los desarrolladores de los Decodificadores en caso de optar por tener “Cable pirata” ya que las grandes empresas que se encargan de brindar este servicio son más estables ya que no corren el riesgo de cerrar sus servidores que generan las llaves electrónicas, siendo estas por medio de tarjetas. Es por esto que para un usuario sin ningún conocimiento sobre este mundo y desea optar por este método de liberación de canales solo necesita de su parte contar con una conexión a Internet, indispensablemente debe ser por medio del WiFi, siendo el WiFi el único medio con que se puede acceder a este método. Palabras clave: IKS, SKS, LNB, SatFinder, transponder, oscilador, modulador, demodulador, llaves electrónicas, decodificación, latitud, longitud, azimuth. ABSTRACT The release of channels by means of IKS is a way of seeing satellite television channels, this does not represent any cost for purchasing this service, that is to say this service is free of charge, as it was mentioned that the service is free the only cost that must be done is to acquire the necessary equipment in order to achieve this objective, the release of these channels can be obtained by various means, such as the system SKS, being this method the less used by the companies that offer this service or by a user amateur to the world of telecommunications, being an ancient method by the fact that it would require additional hardware without mentioning that this method to Today turns out not to be so effective. The IKS system as some kind of electronic key that allows us the release of satellite, in contrast to the SKS this today remains an effective and stable, this depending on the developers of the decoders in case of opting for having “pirate” as large companies that provide this service are more stable since it does not run the risk of closing their servers that generate the electronic keys, being these by means of phone. It is for this reason that for a user without any knowledge about this world and want to opt for this method of release of channels only needed on your part to have a connection to Internet fuses must be by way of the WiFi, the WiFi the only means that you can access this method. Key words: IKS, SKS, LNB, SatFinder, transponder, oscillator, modulator, demodulator, electronic keys, decoding, latitude, longitude, azimuth. 1. INTRODUCCIÓN. Los sistemas satelitales hoy en día tienen múltiples aplicaciones, el mundo de las telecomunicaciones nos abre campo a la informática como ser el área de las redes, esto es bien aprovechado por los informáticos en este caso la Decodificación de canales satelitales. Con esto se obtiene la liberación de canales satelitales, esto tiene la gran ventaja de liberar canales si ningún tipo de costo adicional además de los equipos necesarios para lograr este fin. Ya que las grandes empresas que se dedican a distribuir este servicio a un costo elevado, la tecnología de esta área en nuestro país en escasa y por consecuencia el elevado costo de estos servicios que en otros países son como un servicio básico.
  • 53.
    36 Existen normas quecontrolan este campo, pero no nos impide que hagamos uso de decodificadores satelitales y aplicando nuestro conocimiento sobre el área, para obtener este servicio. Respaldándonos en el comunicado que dio la ATT “La compra de estas antenas en este momento no está violentando la Ley de Telecomunicaciones, observamos que todavía no tenemos una reglamentación para la introducción al país de estos equipos para captar canales satelitales” (Alvaro Liksic, 2012) Esto hasta la fecha no existe una normativa que controle la venta de estos equipos. Es por ese que se este servicio es utilizado en nuestro medio, claro que al ser pirata esto tiene sus inconvenientes. 2. DESARROLLO 2.1. Fundamento teórico. Se dispone de una red de satélites con diferentes objetivos que orbitan el planeta tierra como ser satélites una de ellas es la transmisión de canales de TV, nos centraremos en esa red satelitales. En esta red existen diferentes satélites dedicados para este fin siendo el más común el satélite Amazonas 61W de las comunicaciones por satélite. Anteriormente solo se recepcionaban canales al apuntar al satélite con una antena satelital de 60cm, hoy en día esto ha sido controlado por medio de llaves (digitales). Para esto es indispensable contar con un decodificador satelital, una antena satelital, LNB y cable coaxial. Ademásdeherramientasespecíficasquenosfacilitaran esta tarea de apuntar a un satélite en concreto. Como ser Inclinómetro, Brujula, SatFinder. Este trabajo tiene como eje central los enlaces satelitales, y dentro de dicho tema se ha hecho hincapié en las características. 2.2. Redes satelitales. Los satélites se los puede definir como repetidores localizados en el espacio, este es capaz de recepcionar señales de alguna estación terrena está ubicada en la tierra, la forma de trasmitir de estas señales son de alta frecuencia por lo que hasta llegar al objetivo receptor ubicado en el espacio este pierde potencia y es por esa situación que los satélites también son considerados como Amplificadores de dicha señal, al situarse en el espacio este puede enviar la señal ya sea al mismo punto donde se generó o cualquier punto de la tierra que tenga línea de vista(sin obstáculos) con el satélite. Así estos satélites consisten de un Transponder (dispositivo receptor-transmisor), una estación terrena controla el funcionamiento de un determinado satélite o varios satélites esto depende al tipo de trabajo específico del satélite en este caso para la transmisión de canales de TV satelitales. 2.3. Modelo de bajada. Los receptores satelitales llevan una serie de etapas, las más importantes son el amplificador, modulador, Oscilador o Generador y demodulador. Estas etapas hacen posible la recepción de estas señales satelitales, al recepcionar se debe amplificar ya que esta señal se debilita al llegar a su objetivo, esta señal debe ser regenerada sin perder su información es donde intervienen la etapa del modulador y el oscilador. Y por último el decoficador debe interpretar esta información en forma de señal, el demodulador lo interpreta estas señales a un tipo de información que es posible interpretar por el resto de las etapas que hacen posible la emisión de video hacia nuestro repectores de TV. Fig. 1. Diagrama en bloques de Receptor satelital. Fuente (Chandos, 1992) 2.4. Satélites orbitales. Estos satélites giran alrededor de la tierra en un patrón elíptico. Como la tierra está en constante movimiento los satélites también giran al mismo sentido y a una velocidad similar al de la tierra. De esta forma los distintos satélites no permanecen estacionarios con relación a ningún punto específico de la Tierra. 2.4.1. Latitud longitud. Como primera medida para describir el paso de un satélite en órbita, se debe designar un punto de observación o un punto de referencia. Este punto podrá tratarse de un lugar distante, tal como una estrella, o un punto en la superficie de la tierra, o también el centro de la Tierra, que a su vez el centro de gravedad del cuerpo principal. En caso de tomar como lugar de observación un punto en la superficie de la Tierra, deberemos estar en condiciones de localizar el punto mediante algún método. Este método de localización es a través del meridiano. Estas líneas conforman cuadriculas sobre la superficie de la Tierra. Las líneas verticales se denominan
  • 54.
    37 Longitud y laslíneas horizontales se denominan Latitud. Las líneas de Longitud se extienden desde el  Polo Norte al Polo Sur, es decir que son círculos iguales al contorno de la Tierra que se interceptan en los polos. Se ha definido por convención, como primer meridiano o Longitud cero grados, a este lo denominan como meridiano de Greenwich, siendo este como punto de referencia por ser el punto cero. Estas definiciones son muy importantes ya que por medio de estos datos se podrá localizar a cualquier satélite, siempre y cuando se tenga una línea de vista de la posición del satélite con el punto de recepción. Chandos (1992) refiere que existen 90° hacia el hemisferio Norte, denominado Latitud Positiva y 90° hacia el hemisferio Sur, denominado Latitud Negativa. Por lo tanto, mediante la intersección de las coordenadas de Latitud y Longitud podremos localizar un punto que este sobre la superficie de la Tierra. Fig. 3. Líneas de Latitud y Longitud Fuente (Chandos, 1992) En cuanto a un satélite, este se encuentra en el espacio, y su posición puede ser estimada con una Latitud, una Longitud y una altura. Esta altura estará referida a un punto sobre la Tierra que es la intersección de la recta que une al satélite con el centro de la Tierra y la superficie de la tierra. 2.4.2. Ángulos de vista. Para lograr recepcionar señales de cualquier satélite es necesario conocer datos adicionales como ser ángulo de elevación y azimut. Estos se denominan ángulo de vista, para tener una buena línea de no se deben tener ningún tipo de obstáculos para tener un buen nivel de señal, sin mencionar los cambios climáticos que se pueden producir, estos cambios debilitan las señales satelitales. 2.4.3. Ángulo de elevación. El ángulo de elevación es el ángulo formado entre la dirección de viaje de la señal transmitida desde una antena de estación terrena y la horizontal, o el ángulo de la antena de la estación terrena entre el satélite y la horizontal. Entre más pequeño sea el ángulo de elevación, mayor será la distancia que debe recorrer nuestra señal hasta ser recepcionado por un satélite. Existen ángulos de elevación aceptables para que la señal recepcionada no sufra mucha distorsión y esta se denomina transmisión inadecuada. Como se mencionó anteriormente esta distorsión también se presenta por fenómenos climatológicos. Por esta situación el ángulo de elevación mínimo es 5 grados. Fig. 4. Eje de coordenadas. Fuente (Chandos, 1992) 2.4.4. Azimut. Azimut se define como el ángulo de direccionamiento horizontal de una antena. Tomando como el Norte como cero grados, y si continuamos girando en el sentido de las agujas del reloj, hacia el Este, llegaremos a los 90° de Azimut. (Chasndos,1992) refiere que al Sur tendremos los 180° de Azimut, hacia el Oeste los 270° y por ultimo llegaremos al punto inicial donde los 360° coinciden con el 0° del Norte. Este dato es importante para localizar la ubicación orbital del satélite en cuestión. El ángulo de elevación y el azimut, dependen ambos, de la latitud de la estación terrena, así como el satélite que queremos apuntar. 2.5. IKS. Por este sistema IKS (Internet Key Sharing), comúnmente conocido como llave electrónica, es posible liberar o acceder a canales satelitales, siendo que el desencriptador o “dongle” se conecta por medio de Internet a un servidor IKS, el cual es proporcionado por el fabricante del equipo, que está configurado
  • 55.
    38 internamente en elaparato, y baja del servidor, en intervalos regulares de tiempo, los códigos IKS para desencriptar las señales de canales satelitales. Este sistema funciona el 98% del tiempo, por este hecho es que se considera un sistema muy estable a diferencia de otros métodos para obtener las mismas llaves electrónicas. CabenotarqueelservicioIKSpuedeserproporcionado de manera pública por el fabricante del equipo o decodificador satelital de manera pública es decir de manera gratuita como también puede ser por medio de un IKS privado el cual cobra una mensualidad para poder darte los datos de acceso para ingresarlos a decodificadores y de esta forma poder acceder a los canales. Las empresas que brindan este servicio por este sistema IKS controlan estas llaves electrónicas por medio de tarjetas que han de ser introducidas al equipo decodificador, siendo de este modo capaces de controlar estas llaves con más seguridad. 2.6. Proceso para el alineamiento al satélite amazonas. Una vez obtenido los equipos necesarios para el alineamiento de la antena satelital. Primero debemos ingresar al sitio web Portaleds de ahí debemos seleccionar elTPdel satélite que deseamos recepcionar la señal, en este caso el satélite amazonas es el más común además el que más canales emite. Una vez puesta en funcionamiento nuestro decodificador se procede a cargar TP del satélite, de ahí nuestro decodificador estaría configurado para recepcionar el satélite mencionado. Seguidamente debemos pasar al calibrado de la antena satelital, esto asumiendo que está montado en su trípode pero siempre el mástil al que está sujeta debe estar a 90° esto lo podemos verificar con nuestro respectivo inclinómetro, al no realizar este ajuste se nos será difícil apuntar la antena. Seguidamente debemos encontrar datos adicionales de Dishpointer este sitio nos permite ubicar el azimut (grados respecto al norte, sentido horario) del satélite, para eso primeramente debemos seleccionar el satélite Amazonas 61W, en La Paz Bolivia este satélite está orbitando aproximadamente por el Este (sentido sale sol). Fig.5. Antena y Decodificador. Fuente (Anónimo, 2010) Una vez ubicado el Azimuth con nuestra Brújula debemos inclinar la antena, la antena es capaz de apuntar a donde deseemos, pero lo complicado es apuntar al satélite, los datos adicionales sobre la inclinación de la antena también no las proporciona en sitio Dishpointer, esto también lo debemos controlar con el inclinómetro. Además, el LNB también tiene que una inclinación todos estos datos nos la proporciona el sitio Dishpointer. Este sitio nos sirve de apoyo, ya que no lo apuntaremos a la primera, por eso es que es muy necesario el Sitefinder, este aparto necesita su configuración y un poco caro de adquirirlo por eso lo tienen los que se dedican esto. Este aparato lo que hace es mostrarnos la intensidad de la señal y mediante esto nosotros vamos moviendo la antena y así tener una señal del 80% que es considerado como buena señal con esto es suficiente para que no se entre corte la señal. Asumiendo que lo habremos apuntado corroboramos con nuestro receptor TV, este también nos sirve como una especie de Sitefinder ya que también nos muestra la intensidad de la señal, pero no con la potencia del Sitefinder. Una vez apuntado al satélite y con el decodificador en funcionamiento ya estamos decepcionando señal del satélite y nuestro decodificador lo está modulando como canales de TV. Pero como se mencionó anteriormente estos no están liberados (bloqueados).
  • 56.
    39 Fig. 6. Modelode instalacion. Fuente (Jorge Olivares A., 2011) Ahí es donde se logra intervenir con la Desencriptación de los canales mediante el sistema IKS. En este caso debemos asegurarnos que nuestro decodificador cuente con conexión WiFi, esto es indispensable si es que contase con esta función debemos adicionar por Hardware un Módulo Wifi USB para el decodificador, ya que los decodificadores de canales satelitales cuentan con estos puertos. Fig. 7. Modulo WiFi USB Fuente (Elaboración propia, 2017) Como se mencionó anteriormente por el medio IKS es como se podrá desbloquear los canales encriptados, al ser una recepción clandestina la estabilidad de esta señal (llave) dependerá de los servidores habilitados o la congestión que exista en dichos servidores, esto deberá ser controlado por proveedor de estos decodificadores. Estas congestiones puede ser considerado como un inconveniente al momento de ver los canales satelitales liberados, ya que podría existir cortes en la trasmisión, como se mencionó anteriormente esto dependerá del mantenimiento que le den a estos equipos, ya sea cambiando de servidores o actualizando el software del decodificador. Es indispensable de una conexión a Internet para este fin. Fig. 8. Esquema de funcionamiento. Fuente (Anónimo, 2010) 3. CONCLUSIONES El propositito de este experimento es aplicar los conocimientos sobre lo que sabe del mundo de las redes, ya sea en el área de las telecomunicaciones. Cabe resaltar que pasa lograr este propósito en necesario realizar una inversión económica para adquirir el Decodificador, antena satelital y un módulo USB WiFi, si es que el decodificador no cuente con Wifi. Este método de Desencriptar los canales se consideran algo ilegal, por eso que se corre el riesgo de que algún día sierren en servidor que libera las llaves y esperar a que abran otro. El uso de estos decodificadores en Bolivia no es ilegal, ya que no todavía no existe la normativa de la ATT que regule el comercio de estos equipos. 4. REFERENCIAS BIBLIOGRAFICAS Anónimo. (2016). Sistema IKS http://tutorialtvsatelital.blogspot.com/p/iks. html. Anónimo. (2015). Que es televisión satelital fta,iks,sks http://www.mundoibox.com/2016/02/que- es-television-satelital-fta-iks-sks.html Anónimo. (2013). Redes satelitales https://instalacionsatelital.wordpress.com/ about/ Anónimo. (2010). SatNetpy http://satnetpy.blogspot.com/p/kit-basico. html
  • 57.
    40 Angel Aranguz. (2010).CFGM Equipos Electronicos https://sites.google.com/site/ equiposdeimagengmfp/ 1transmisiondetelevision/funcionamiento de-la-tv-satlite Alvaro Liksic. (2012). Norma de regularizació de venta de decodificadores. http://elpaisonline.com/index.php/editorial/ item/3845-att-espera-norma-para-la-venta- deantenas-satelitales Chandos A. Rypinski. (1992). DOCUMENTO IEEE “Características de una Radio LAN” https://es.scribd.com/document/235076902/ Monografico-de-Medios-de-Tansmision-de -Redes-Inalambricas Elie Moreno, Carlos Landaeta. (2010). TV satelital. http://www.labc.usb.ve/paginas/Ec4434/ trabajos%20ENE-MAR04/TVsatelite.pdf Jorge Olivares A. (2011).Televisión satelital de televisión satelital FTA, en la provincia de Aija enel año 2015. http://www.spw.cl/inalambrico/dth3.pdf Miguel David. (2015). Propuesta de implementación de una red de televisión por cable, utilizando el sistema http://repositorio.uladech.edu.pe/bitstream/ handle/123456789/887/TELEVISION_%20 SATELITAL_RODRIGUEZ_%2 0SANCHEZ_MIGUEL_%20DAVID. pdf?sequence=1
  • 58.
    41 DISEÑO DE CIRCUITOSLÓGICOS COMBINATORIOS MEDIANTE ALGORITMOS GENÉTICOS Copa Mita Luis Fernando, Furuya Valdivia Grace luiscopa786@gmail.com , grace22yw@outlook.es Universidad Mayor de San Andrés Carrera de Informática Gramática Española RESUMEN El comportamiento de los circuitos combinacionales sólo depende de las señales de entrada en un instante determinado, y no de la secuencia de entradas, es decir, de la historia del circuito. Este hecho no quiere decir que el comportamiento temporal no sea importante, de hecho una de las principales características de los circuitos que se tienen en cuenta es la velocidad de operación o el retraso de propagación, todos los métodos nos ayudan a simplificar los circuitos y la complejidad de estos utilizando mapas de Karnaught también usando el método Quine-McCluskey para la solución de estos. Además Java surge por la necesidad de contar con un lenguaje de programación que fuera independiente de la plataforma, permitiendo generar software para di- versos dispositivos electrónicos. La Word Wide Web hace que java se convierta en el lenguaje de progra- mación más importante para el desarrollo de software para la internet, ya que la web demanda programas portables Palabras clave: Circuitos, Compuerta, Función Java, Matriz, Método, Sistema, Sumador. ABSTRACT The behavior of the combinational circuits depends only on the input signals at a given time, and not on the sequence of inputs, that is, on the circuit history. This fact does not mean that the temporal behavior is not important; in fact one of the main characteristics of the circuits that are taken into account is the speed of operation or the delay of propagation, all the methods help us to simplify the circuits and the complexity of these using karnaught maps also using the Quine-Mc- Cluskey method for the solution of these. In addition Java arises from the need to have a programming lan- guage that is independent of the platform, allowing to generate software for various electronic devices. The Word Wide Web makes java become the most important programming language for software development for the internet, as the web demands por- table programs Keywords: Circuits, Gate, Function Java, Matrix, Method, System, Adder. 1. INTRODUCCIÓN El adelanto tecnológico conseguido en los últimos 50 años por la humanidad ha sido tal que es superior a la suma de los avance alcanzados hasta antes de los años 1990 .Esto se debe en gran medida a la electró- nica digital ,cuya implementación ha permitido pro- gresos importantes en la ciencia ,en la industria, en las comunicaciones y en la vida cotidiana .el mayor representante de ello es la computadora digital, he- rramienta sin la cual es posible imaginar los logros obtenidos ,como por ejemplo el programa espacial, control de tránsito aéreo, automatización de proce- sos en la industria ,la internet por mencionar algunos .todo aquello gracias al desarrollo de circuitos inte- grados pequeños y de bajo costo .el diseño de cir- cuitos ha requerido la aplicación de varias técnicas para simplificarlos “Probabilidad de una expectativa fundada en un conocimiento parcial. Un perfecto co- nocimiento de todas las circunstancias que afectan la ocurrencia de un evento que cambiaría expectativa en certeza, y dejar espacio inferior ,ni la demanda de una teoría de las probabilidades (Boole, A Triese on the Calculus of Infinte , 1860).En un principio se utilizó el álgebra booleana ,no obstante al incrementarlo de tamaño y complejidad de los circuitos (mayor número de variables de entrada y mayor número de salidas) fue necesario utilizar otras técnicas .los mapas de Kar- naugh representaron una solución (estos mapas son un procedimiento que facilita la reducción de los circui- tos de forma gráfica), sin embargo ,estos dejan de ser prácticos para problemas mayores de seis variables . El método Quine-McCluskey permitió superar este problema, y además, su implementación en una com- putadora resulta más simple. Estas son más las he
  • 59.
    42 rramientas más conocidaspara el diseño de circuitos lógicos. 2. DESARROLLO La forma en que se representa un circuito lógico es por medio de una matriz bidimensional, en la que cada elemento es una compuerta que recibe en sus dos en- tradas la salida de cualquier compuerta de la columna anterior en la figura se visualiza la representación. Figura 1 : Compuertas And Or Y Not . Fuente:(morris, 1987) La codificación de una compuerta requiere de tres ge- nes: uno indica el tipo de compuerta, y los otros dos corresponden a las entradas. En esta codificación cada celda de la matriz contiene la información referente a la compuerta y sus entradas. Las compuertas que pueden estar codificados en cada una de las tercias pueden ser las siguientes: AND, OR, XOR, NOT, o WIRE. Esta última es realidad no es una compuerta y no contribuye en la cuenta de compuertas presente en la solución, sino que se trata de un refor- zador de corrientes que es necesario para poder llevar a cabo la optimización de las soluciones. Las entradas de cada compuerta provienen única- mente de la columna previa a la columna donde se encuentra la celda. Cabe decir que la primera columna no tiene columna previa así que para ella las entradas de las compuertas son precisamente las variables de entrada del circuito. Figura 2. Forma de Representar Circuito Fuente:(Amas, 1960) El espacio de búsqueda máximo debido a esta repre- sentación depende directamente del número de tipos de compuertas distintas que pueden ser uti- lizadas en el diseño del circuito y del tamaño de la matriz usada para la representación de las soluciones. Si tenemos una matriz de: n * m Entonces la longitud necesita para representar es de: 3 * n * m Ya que cada una de las celdas es una tercia de infor- mación. Si además tenemos k tipos de compuertas dis- tintas entonces el espacio de búsqueda es de k3nm , en la figura (del celular) se muestra un ejemplo de una matriz de 5 * 5 con 5 tipos de compuertas distintas y con un espacio de búsqueda de tamaño de: 55*5*3 = 575 =2.6x1052 . Ahora es posible calcular la longitud del cromosoma (L): L = reglones * columnas * 3, Reglones * Columnas Determina el número de componentes que tiene la ma- triz, y el número tres, la cantidad de genes necesarios por componentes. Por tal motivo, la longitud del cro- mosoma se calcula de la siguiente manera: L = renglones * columnas * 3 * reprebinaria, Reprebinaria es el número de genes necesarios para manipular la representación binaria.
  • 60.
    43 Por ejemplo sila matriz es de 7 * 7, siete es el número máximo a representar, así que para este caso se nece- sita tres posiciones más, ya que 111 = 7. Por lo tanto, la longitud del cromosoma será: L = 7 * 7 * 3 * 3 = 441 Mientras que para la entera será: L = 7 * 7 * 3 = 147 Para este ejemplo, la longitud del cromosoma con co- dificación entera es tres veces menor a la longitud ob- tenida por la binaria, las ejecuciones de esta serán en menor tiempo. La función objeto se la puede expresar así: f = aciertos + bonos, aciertos es el número de salidas de la tabla de verdad que se cumplen y bonos es un valor que se hace cera cuando aciertos es menor que el número exacto de sa- lidas de la tabla de verdad. Como aciertos es el número de bits de salida de la tabla de verdad, entonces: Aciertos = 2ne * ns Ne es el número de entradas y ns es el número de sali- das, mientras bonos (números de WIREs que tiene el individuo) se puede expresar de la siguiente manera: bonos = r * c – CO. Siendo r renglones, c columnas y CO el número de compuertas que no son WIREs. Por lo tanto la función objetivo es: f = 2ne * ns + r * c – CO Entonces mediante f se pretendo obtener: f Donde: F (ne) es la función booleana de salida, ne es el nú- mero de entradas y X (mintermino) es una cadena con representación canoníca. La operación básica del A.G. se ilustra a continuación: Inicio AG Generar población inicial Repetir Evaluar aptitud de los individuos Seleccionar a los mejores Re-combinar los genes de los padres elegi- dos Perturbar la población con mutaciones Hasta criterio de parada Fin AG Figura 3: Cuadro de la operación Básica del A.G Fuente: (Miranda, 2005) 2.1.2. LOS OPERADORES GENÉTICOS Para los operadores genéticos, fueron implementadas la cruza de dos puntos y la mutación uniforme y alea- toria. El porcentaje de nutación puede ser Pm = 1/L, que es una de las formas recomendadas. También se puede usar Pm = 0.5/L (L representa la longitud del cromosoma) o alternativamente, se puede insertar otro valor, el cual se encuentra limitado por el rango (0.001-0.01) La figura 4 muestra unos ejemplos del funcionamiento de este operador de cruza. Figura 4: Matriz de 5x5 con un espacio de 5 Fuente:(Herbert, 2001) 2.1. ELALGORITMO GENÉTICO Con respecto al AG, Coello. Habla de una versión con
  • 61.
    44 elitismo. A continuaciónse describirán algunas de las características que bebe tener el AG. 2.2. LA REPRESENTACIÓN La representación debe ser la binaria y la entera, esto se hace para demostrar la utilidad de esta última. En palabras de “aunque se ha argumentado que una re- presentación binaria proporciona el número máximo de esquemas, existe evidencia de que en algunos do- minios tales como el de la optimización numérica, los alfabetos de cordialidad más alta proporcionan mejo- res resultados en un periodo de tiempo más corto que sus contrapartes binarias”. (Coello, 1997) 2.2.1. LA POBLACIÓN INICIAL La población inicial es n dato de entrada que por de- fecto esta en 100. El usuario puede realizar el cambio de este dato. 2.2.2. LA FUNCIÓN DE EVALUACIÓN Explica Coello que “utiliza una comparación bit por bit del resultado producido para una cierta combina- ción de entradas con respecto a las salidas esperadas” (Coello, 1997). Se penaliza por cada error hallado. Si el individuo representa un circuito funcional, entonces la función de aptitud “premia” la solución por cada WIRE que contenga, a fin de alentar los diseños que usen menos compuertas. 2.2.3. LA SELECCIÓN Para el operador de selección, se implementó única- mente la selección por torneo binaria (realiza la com- petencia únicamente entre dos individuos). 2.2.4. MECANISMO DE PARO Respecto a la forma de detener el AG, (Coello, 1997). “explica que se lo puede hacer por medio del número de generaciones, ya que no es posible definir el umbral que puede asegurar que no existe una mejor solución”. Por lo tanto el programa tiene como parámetro inicial el valor de 100 generaciones, el usuario puede modi- ficar este valor. Ya que no tiene complicación alguna el hacerlo. 2.3. EVALUACIÓN DEL CIRCUITO La evolución del circuito codificado en la matriz se re- fiere a la obtención de la tabla de verdad que produce, configuración de compuertas. La tabla de verdad es importante debido a la forma en que esta expresada en entrada al programa y por ello la única manera en que podernos sacer si la salida de la solución encontrada de las variables de entrada.. El proceso de evaluación comienza por la columna que está más a la izquierda de la matriz. Como se ve en la figura 5 la entrada de las compuertas de cada celda de esta columna son valores de las variables de entrada de cada una de las combinaciones. 2.4. EL PROGRAMA La inserción de datos se la realiza a través de un menú de interfaz gráfica y el usuario puede modificar los da- tos (tanto parámetros del Ag, como el tipo de operador a utilizar) en tiempo de ejecución. Figura 5: Cruza de Múltiples Puntos Fuente:(Coello, 1997) 2.5. LA FUNCIÓN DE APTITUD Para ejemplificar la manera de trabajar de la función de aptitud se utiliza la tabla de verdad que se muestra a continuación: A B C F1 0 0 0 0 0 1 0 1 0 0 1 1 1 0 0 1 0 1 1 1 0 1 1 1 0 0 0 1 0 1 1 0 Figura 6: Tabla De Verdad De La Re- presentación De Cruza De Puntos Fuente:(Soria, 2008) Para este ejemplo se utiliza los siguientes parámetros: • Representación binaria.
  • 62.
    45 • Cruza de dospuntos. • Mutación uniforme. • Probabilidad de cruza = 0.5. • Probabilidad de mutación = 1/ L • Semilla inicial = 0.273. • Con 100 individuos. • Usando las compuertas básicas y la XOR. • Y un tamaño de matriz de 5*5 El AG genera la población inicial de tal forma aleato- ria, y la población es evaluada para encontrar al mejor individuo de la misma. El individuo es una cadena de ceros y unos con una longitud que se expresa así: L = 5*5*3*3 = 225 genes se optó por mostrar su diseño. Cabe aclarar que en el programa no se genera el diseño cuando el circuito no es factible, solo se indica al usuario siendo necesario. Se evalúa al individuo generando una tabla de verdad después de cada columna iniciando por la que se en- cuentre más a la izquierda. La tabla de verdad que se tiene de entrada más a la izquierda. Figura 7: Circuito Integrado Fuente:(Coello, 1997) La tabla de verdad que se tiene de entrada se utiliza con la primera columna, de la cual se obtiene la tabla que se utilizara en la siguiente columna y así sucesiva- mente. Al terminar de recorrer las columnas la última tabla generada es comparada con la tabla de verdad de salida. Hay que recordar que la función objeto es: f = aciertos + bonos f = 2ne + r * c – CO. El AG incrementara la aptitud del individuo en pro- porción al número de compuertas WIREs contenidas en el. Sin embargo, es hasta la generación 766 donde encuentra el diseño óptimo que consta de cuatro com- puertas. 2.6. ¿POR QUÉ JAVA? Java fue creado por James Gosling, Oatric Naugton, Chris Warth, Ed Frank y Mike Sheridan en Sun Mi- crosystems en 1991. Java surge por la necesidad de contar con un lenguaje de programación que fuera independiente de la pla- taforma, permitiendo generar software para diversos dispositivos electrónicos. La World Wide Web hace que java se convierta en el lenguaje de programación más importante para el desarrollo de software para la internet, ya que la web demanda programas portables. 2.6.1..INDEPENDIENTE DE LA PLATAFORMA La independencia de la plataforma se refiere a que un programa en java puede ejecutarse sin importar el sis- tema operativo de la maquina en particular. La independencia de plataforma es una de las ventajas más representativas de Java sobre otros lenguajes de programación. La meta de Java era “escribir una vez, ejecutarse en cualquier sitio, en cualquier momento y para siempre”, el objetivo se alcanzó en gran medida. 2.6.2 SEGURO La seguridad de Java consta de dos partes. En primer lugar los apuntadores son eliminado, con esto se pre- viene el acceso ilegal a la memoria Y en segundo lugar, el código es analizado por un ve- rificador de ByteCode, que comprueba el formato de los fragmentos de código y aplica un probador de teo- remas para detectar fragmentos de código ilegal antes de ser ejecutado por el intérprete. Figura 8: Esquema de la portabilidad de los progra- mas hechos en java Fuente:(Herbert, 2001) Con esto se tiene la certeza de que el programa en eje- cución no tendrá virus y el usuario podrá utilizarlo con toda tranquilidad.
  • 63.
    46 2.6.3 ROBUSTO Java esconsiderado un lenguaje robusto y confiable, gracias a las siguientes características que se muestra: • Validación de tipos • Validación del apuntador NULL • Límites de un arreglo • Manejo de memoria Aunque este último punto es considerado inapropiado porque es proceso de recuperar memoria ya no utili- zada puede llevar mucho tiempo, y además puede no ser aceptable si se invoca por el sistema en un momen- to crítico de la aplicación; es posible tener un control al respecto, puesto que Java al incluir soporte para la programación concurrente, le permite al programador la oportunidad de decidir cuándo disparar la recolec- ción basura. 3. CONCLUSIONES Se cumplió con el objetivo general de mejorar la implementación para obtener diseños de circuitos óptimos al poder manipular parámetros y operadores del AG y así observar su comportamiento en el diseño mostrado. Se logró cumplir también al obtener soluciones a ni- vel de compuertas lógicas (AND, OR, NOT, NAND, NOR y XOR), utilizando las técnicas de los algorit- mos genéticos de esta manera este trabajo de artículo aporta con soluciones óptimas en menores cantidades de tiempo. También es posible concluir que el Pm aporta me- jores resultados con un valor de 0.5/L (donde L es la longitud del cromosoma). Se observa que el desempeño del AG en la búsqueda de soluciones factibles depende de la complejidad del problema a resolver. Sin embargo, si se llega a encon- trar circuitos óptimos. Aunque la representación bina- ria supera a la representación entera en cuanto al nú- mero de soluciones factibles y optimas, la codificación entera le permite trabajar el AG tres veces más rápido que si se utilizara la binaria por eso se considero 4. REFERENCIAS BIBLIOGRAFÍCAS Amas, C. (1960). Introduccion a los Algoritmos Gene- ticos . Mexico. Boole, G. (1860). A Triese on the Calculus of Infinte . Reino Unido. Cork. Boole, G. (1954). An Investigaion of the Laws of Thought, on Which Are founded the Mathe- matical . New York: Dover Publisher. Coello, C. (1997). Taller de Aprendizaje. Mexico. Espinar, C. (1938). A symbolic analysis of realy and switching circuits. Estados Unidos : Transac- tions of the AIEE. Goldberg, D. (1989). Genetic Algorithms inSearch Optimization and Machine.Scotland: Edin- burgh . Herbert, S. (2001). Java 2:Manual de referencia y Aplicaciones. España: mcGraw Hill. Kalganova, T. (2000). Envolvable Hardware Design of Combinational. Scotland : Napier Univer- sity. Koza, J. (1992). Genetic Programing of Java New. Massachusetts: Longman Edit Inc. Lopez, I. G. (2000). Obtencion de la forma de la Su- perficie Esferica a apartir de radios de Cur- vatura Locales. Mexico: Universidad Tecno- logica de Mixteca. Miranda, G. (2005). Manual de Java,Principios Ba- sicos y un poco de Teoria . Recuperado de http://server2.ok.cl/java/index.html Morris, M. (1987). diseño digital . Mexico: prentice hall. Soria, A. (2008). Algoritmos y Capacitores en el siglo XXI.Madrid, .España.
  • 64.
    47 EL DESPLAZAMIENTO DELA CAPACIDAD DE PENSAMIENTO HUMANO Escobar Mamani Jason Maximiliano, Mamani TiconaYecid Israel, Quispe Matta Nora Lizeth nojason06@gmail.com, guitargod720@gmail.com, lin.q.nora.21@gmail.com Universidad Mayor De San Andrés Carrera De Informática Gramática Española RESUMEN Lo que en un tiempo pasado se creíaficciónhoy es una realidad, la idea de una inteligencia artificial capaz de imitar el comportamiento neurológico de un ser hu- mano, al igual que la historia evolutiva de las compu- tadoras, inteligencia artificial como rama del desarro- llo de la informática se ha desarrollado al punto de una realidad inesperada. Si bien en un tiempo pasado la idea de reducir el tiem- po de razonamiento del ser humano se creía que sería un gran avance para mejorar el aprendizaje del ser hu- mano hoy en día quizá resulte ser como un arma de doble filo. Palabras Clave: Cerebro, Cognitivo, Chino hip, De- sarrollo, Futuro, Humano , Inteligencia artificial, Ma- quina, Mente, Pensamiento. ABSTRACT What in the past was believed to be an idea today is a reality, the idea of an artificial intelligence capable of mimicking the neurological behavior of a human be- ing, as well as the evolutionary history of computers, artificial intelligence as a branch of computer science has developed to the point of an unexpected reality. While in a past time the idea of reducing human rea- soning time was believed to be a breakthrough to im- prove human learning today may prove to be a dou- ble-edged sword. Keywords: Brain, Cognitive, Chip, Development, Fu- ture, Human, Artificial intelligence, Machine, Mind, Thought. 1.INTRODUCCIÓN La humanidad si bien con el avance tecnológico ha resultado beneficiado de ello en algunos aspectos, tam bién ha sido afectada por ese mismo aspecto en cuanto a su capacidad de pensamiento. Lo que en un tiempo atrás era considerado una fábula de tipo religioso asiendo aluvión a la cita bíblica del libro de Daniel capitulo 12 verso 4 “Pero tú, Daniel, cierra las palabras y sella el libro hasta el tiempo del fin. Muchos correrán de aquí para allá, y la ciencia se aumentará.”, lo hoy en día se ha convertido en una realidad visible, una tecnología capaz de reemplazar la capacidad única de pensamiento humano, la necesi- dad del ser humano de pensar más rápido y en menos tiempo a provocado que el hombre desarrolle nuevas innovaciones tecnológicas que cubran estas necesida- des. La tecnología actual en el capo de la inteligencia ar- terial nos llevara a tener menos capacidades de pen- samiento y razonamiento, quizá en un futuro no muy lejano la inteligencia artificial pueda ser más avanzada a la inteligencia humana. 2. DESARROLLO La Inteligencia Artificial fue introducida en la comu- nidad científica en el año 1950 por el inglés Alan Tu- ring en su artículo “Maquinaria computacional e inte- ligencia”, en dicho artículo Turing trato de responder la siguiente pregunta: ¿pueden las maquinas pensar?; la intención de Alan Turing era eliminar la distinción entre inteligencia natural e inteligencia artificial. En el congreso de Darthmounth, del año 1956, se lle- gó a la definición de las presuposiciones básicas del núcleo teórico de la inteligencia artificial: • Reconocimiento de que pensamiento puede ocu- rrir fuera del cerebro, en máquinas. • La presuposición de que el pensamiento puede ser comprendido de manera formal y científica.
  • 65.
    48 • La presuposiciónde que la mejor forma de enten- derlo es a través de computadoras digitales. Algunos investigadores se dedicaron al estudio del aprendizaje en las máquinasy a los procesos de reco- nocimiento de patrones visuales. Como resultado se consigue diseñar el primer programa capaz de apren- der por experiencia, basado en los estudios sobre memoria asociativa se construyó la primera máquina “inteligente” capaz de aprender y memorizar.La para- doja era que la computadora podía resolver complica- dísimas operaciones matemáticas, pero no podía pen- sar. Pero al reproducir en forma mecánica funciones propias del cerebro, se pueden averiguar cosas que no sabemos sobre nosotros mismos y podría resultar ser contra producente. La inteligencia artificial en los dominios cognitivos intenta comprender el funcionamiento de nuestro ce- rebro y sus funciones cognitivas (razonar, oír, hablar, o incluso emociones) emulando dichos procesos con modelos computacionales. Se crea una nueva ciencia llamada Ciencia Cognitiva. Minsky es considerado uno de los padres de la inte- ligencia artificial (IA). Fue uno de los fundadores del laboratorio de IA del Instituto de Tecnología de Mas- sachusetts y en 1986 publicó una obra fundacional en el campo de la ciencia cognitiva, La sociedad de la mente. Al igual que Copérnico, que en su momento detuvo al Sol y puso en marcha la Tierra para sorpresa de los hombres, Marvin Minsky se ha propuesto qui- tarle ciertas vendas de los ojos a muchos de sus con- temporáneos. ¿Cómo puede surgir la inteligencia de algo que no es inteligente?, se pregunta, refiriéndose al cerebro humano. ¿Cómo es posible que un cuerpo aparentemente sólido albergue algo tan sutil, incorpó- reo, como una idea?, insiste. Minsky pasó cincuenta años de su vida investigando el mecanismo de la men- te. Si bien el cerebro humano es muy complejo puede llegar imitarse con los avances tecnológicos. En el lenguaje común de los científicos cognitivos se volvía pertinente hablar de inteligencia o de pen- samiento en el comportamiento mecánico de un or- denador. Esto trajo dos consecuencias que son a la vez la clasificación de los dos tipos generales de in- teligencia artificial que se promulgaron: por un lado, la inteligencia artificial débil buscaba simplemente la utilización de la instrumentaría tecnológica para el estudio de las facultades cognoscitivas humanas. En cambio, la inteligencia artificial fuerte explicitaba un paralelismo real y no sólo de naturaleza análoga entre la inteligencia artificial y la humana. Para ellos, la tec- nología de la inteligencia artificial era una explicación de lo que ocurría realmente en la cognición humana, y por lo tanto, la dirección de comparación tendría un movimiento de retorno, es decir, así como primero se atribuyó a la máquina facultades humanas, ahora se definía al hombre a partir de las facultades de la má- quina. Lo que para el ser humano puede resultar un gran be- neficio, quizá en un futuro no muy lejano tenga conse- cuencias no muy positivas, el físico Stephen Hawking dijo lo siguiente: “La inteligencia artificial augura el fin de la raza humana”, sin embargo, también afirma que hay maneras de lidiar con estos retos. “No vamos a dejar de progresar, tampoco vamos a revertir (lo que hemos progresado), así que tenemos que reconocer los peligros y controlarlos. Soy un optimista, creo que lo podemos lograr”, dijo. Sin embargo hoy en dia la sociedad se a convertido en seres potencialmente dependientes de la tecnolo- gía, como ejemplo mencionemos que Sólo estar cerca de tu teléfono inteligente puede ser suficiente para re- ducir tu poder cerebral, incluso cuando está apagado, de acuerdo con un estudio, de la Escuela de Negocios McCombs de la Universidad de Texasen Austin, por lo que es posible que desees alejarte un poco de él en el futuro. La investigación muestra la forma en que nuestros teléfonos inteligentes se han convertido en una fuente constante de distracción, ya sea que los uti- licemos realmente o no. El profesor de McCombs, Adrian Ward, y los coau- tores realizaron experimentos con casi 800 usuarios de teléfonos inteligentes en un intento de medir, por primera vez, lo bien que la gente puede completar las tareas cuando tienen sus teléfonos inteligentes cerca incluso cuando no los usan. Los resultados aseguran que la presencia de un teléfono inteligente reduce la capacidad cognitiva disponible y deteriora el funcio- namiento cognitivo, a pesar de que las personas sien- tan que están prestando toda su atención y enfoque a otra tarea. “Vemos una tendencia lineal que sugiere que a medida que el teléfono inteligente se vuelve más visible, la capacidad cognitiva disponible de los participantes disminuye. Tu mente consciente no está pensando en tu teléfono inteligente, pero ese proceso, el proceso de exigir que no pienses en algo, utiliza al- gunos de sus limitados recursos cognitivos, y se con- vierte en una fuga en tu cerebro”. En otro experimento, los investigadores analizaron la dependencia de un teléfono inteligente de un individuo
  • 66.
    49 o qué tanfuertemente siente una persona que necesita tener un teléfono inteligente para superar una capaci- dad cognitiva típica afectada por el día. Obviamente los resultados mostraron que los participantes son su- mamente dependientes a sus teléfonos y más cuando su aparato se encontraba en el escritorio o dentro de su bolsa. Ward y sus colegas también encontraron que no importaba si el teléfono inteligente de una persona estaba encendido o apagado, o si estaba boca arriba o boca abajo, tener un teléfono inteligente a la vista o de fácil alcance reduce la capacidad de una persona para concentrarse y realizar tareas porque parte de su cerebro está trabajando activamente para no utilizarlo, lo que corrobora la reducción de la capacidad mental del ser humano. Si bien el ser humano haciendo mal uso de la tecno- logía se ha provocado a si mismo un deterioro en su capacidad cerebral hoy en día se ha desarrollado una nueva tecnología capaz se imitar el comportamiento del cerebro humano, encabezado de un artículo publi- cado por soluciones Intel donde dice textualmente: “INTEL PRESENTA LOIHI, EL CHIP QUE IMITA EL CEREBRO HUMANO”. (Castillo, O. (28 de sep- tiembre de 2017)). El nombre de este chip es Loihi, y su base, a diferencia de los chips tradicionales, es la computación neuro- mórfica, tecnología que le permite aprender y realizar conclusiones sin previas instrucciones o programacio- nes por parte de los humanos. Loihi, es capaz de aprender del entorno que la rodea, leer bases de datos de cualquier tipo y no necesita al- guien que le haga mantenimiento ya que evoluciona de manera autónoma gracias a su propia inteligencia artificial. Este avance científico sería el principio para relegar la capacidad cognitiva del ser humano. “Intel está tomando otra dirección con un chip experi- mental llamado “Loihi”. En lugar de confiar en la po- tencia bruta de la computación, utiliza una tecnología experimental llamada “nueromórfica” que es el mode- lo bajo el cual opera el cerebro humano.”. (Castillo, O. (28 de septiembre de 2017)). Figura 1 LOIHI Fuente: (Intel ,2017) Los primeros 6 meses con Intel Loihi, los científicos han demostrado un aprendizaje más de un millón de veces más rápido en comparación con otras redes neuronales con potenciales comunes para la activi- dad eléctrica, haciendo esta evaluación con el número total de operaciones necesarias para lograr una cierta precisión en la resolución de problemas relacionados con el reconocimiento de dígitos utilizando la base de datos MNIST. Intel Loihi emplea muchos menos recursos para la misma tarea comparado con otras tecnologías de redes neuronales de aprendizaje. El chip Loihi de Intel tiene mil 24 neuronas artificia- les, o 130 mil neuronas simuladas con 130 millones de conexiones sinápticas posibles. Eso es un poco más complejo que el cerebro de una langosta, pero muy lejos de nuestros 80 mil millones de neuronas. Los cerebros humanos trabajan transmitiendo infor- mación con pulsos o picos, fortaleciendo conexiones frecuentes y almacenando los cambios localmente en las interconexiones de sinapsis. Como tal, las células cerebrales no funcionan solas, porque la actividad de una neurona afecta directamente a otros - y grupos de células que trabajan en concierto conducen al aprendi- zaje y la inteligencia. Mediante la simulación de este comportamiento con el chip Loihi, puede (en teoría) acelerar el aprendiza- je de la máquina, mientras que reduce los requisitos de energía de hasta mil veces. Una ventaja adicional es que todo el aprendizaje se puede hacer en el chip, en lugar de requerir enormes conjuntos de datos. Si se incorporan a una computadora, tales chips también pueden aprender cosas nuevas por sí mismos, en lugar de permanecer ignorantes de las tareas que no se le han enseñado específicamente.
  • 67.
    50 Estos tipos dechips nos darían el tipo de comporta- miento que esperamos de las Inteligencias Artificiales como robots y otros dispositivos que podrán aprender a medida que interactúan con los humanos. El chip de prueba tiene un enorme potencial para mejorar apli- caciones automotrices e industriales, así como robots personales asegura Intel. (Castillo, O. (28 de septiem- bre de 2017)). Figura 2 CAPACIDADES CEREBRALES Fuente: (global news ,2017) Con el texto citado es oportuno mencionar lo que dijo el reconocido doctor científico cognitivo también con- siderado uno de los padres se la inteligencia artificial Marvin Minsky: “La inteligencia artificial nos recuer- da que no es una gran cosa ser una persona”. Si bien en un tiempo pasado resultaba complicado entender el comportamiento humano hoy eso quedo en el pasado con este avance científico en el área de la inteligen- cia artificial podría ser posible relegar las funciones humanas, este desarrollo tecnológico como bien lo venimos argumentando puede ser una amenaza para la humanidad. El reciente desarrollo de Intel construirá los chips usando su tecnología de procesamiento de 14 nanó- metros y se lanzará el primer modelo de prueba en noviembre. Pero también es necesario mencionar los aportes que ha realizado la inteligencia artificial en bien de la so- ciedad como un ejemplo cabe mencionar lo que se pu- blicóen un artículo del periódico el comercio donde se menciona textualmente: “Nuka, la foca robot que mejora la salud de los ancianos”. Este desarrollo so- cial fue logrado con el uso de inteligencia artificial, según su creador, “Nuka permite reducir los niveles de ansiedad y tristeza de los pacientes de la tercera edad”. “Nuka es capaz de atender con su mirada a quien le habla incluso cuando se le cambia el nombre sin avi- sar gracias a su sistema de inteligencia artificial in- corporado.” este aporte científico fue desarrollado por científicos pensantes con la motivación de ayudar a la sociedad, lo negativo de esto surge cuando esa misma sociedad se encierra a ser solo usuarios en lugar de ser creativos. “En una entrevista en la BBC, a través de la voz arti- ficial con la que se comunica, ha expresado su preo- cupación por el desarrollo futuro de la inteligencia ar- tificial y advierte que podría destruir a la humanidad. Afirma esto a pesar de que se expresa a través de un sintetizador de voz alimentado por un ordenad Intel, es partidario y usuario de la tecnología puntera y cree que hasta ahora ha prestado unos relevantes servicios al hombre. Pero su mirada va hacia el futuro: “El de- sarrollo de una completa inteligencia artificial podría traducirse en el fin de la raza humana”. El físico, que se declara ateo, vaticina que una IA enormemente de- sarrolla “podría decidir rediseñarse por su cuenta e incluso llegar a un nivel superior”. La raza humana se vería desbordada: “Los hombres, que están limitados por una evolución biológica, no podrían competir”. (Anónimo. (diciembre de 2014)). A si como también existen algunos peligros o riesgos en la I.A., a principios de enero de 2015, cerca de 700 científicos especializados en áreas tecnológicas firmaban una carta abierta alertando de los peligros de la inteligencia artificial  (IA). Han sido muchas las reacciones a este escrito y no han sido pocos los escenarios catastróficos descritos, más propios de la ciencia ficción, que alertan sobre de una revolución de las máquinas y la extinción de la humanidad. Un claro ejemplo es la película “Terminator”, “Yo robot”, que a pesar de solo ser películas de ciencia ficción nos muestran una posible realidad futura. Como referencia cabe mencionar lo dicho por el di- rector del Instituto de Inteligencia Artificial de Barce- lona (IIIA-CSIC), Ramon López de Mántaras agrega además las armas autónomas como amenaza. “Es muy preocupante el desarrollo de la robótica inteligente con la finalidad de disponer de robots soldados, ya que para un robot es casi imposible distinguir entre un civil inocente y un combatiente”, subraya el premio nacional de Informática 2012 y firmante del manifies- to. Así como la inteligencia artificial a aportados grandes beneficios en favor de la sociedad existe la posibilidad de peligros a futuro en contra de la misma sociedad, ya sea por fallas tecnológicas o por excesivo desarro- llo tecnológico que provoque relegar al ser humano.
  • 68.
    51 3.CONCLUSIÓN En un futurono muy lejano la sociedad humana po- dría contar con un pequeño grupo de personas poten- cialmente pensantes y un numeroso grupo de personas que dejaron de razonar y pensar para dejar ese trabajo la inteligencia artificial. La sociedad joven se ha adaptado fácilmente a la tec- nología que dispone a la mano, con el fin de reducir el tiempo las de actividades habituales básicas como realizar operaciones aritméticas, leer y otros, activida- des que aumentan la capacidad neuronal en el cerebro, la inteligencia artificial dañaría el potencial que tie- ne el ser humano en cuanto a su desarrollo cognitivo. científicos para no llegar a un futuro dominado, que tanto puede llegar a avanzar la ciencia, será posible que estos desarrollos científicos puedan aportar a la autodestrucción de la humanidad así comolo afirma el reconocido físico Stephen Hawking. La humanidad estaría frente a una sociedad domina- da por la inteligencia artificial, o la humanidad podría limitar sus desarrollos Es posible que en un futuro la inteligencia artificial sea tan desarrollada que los mis- mos robots tengan la capacidad de desarrollar senti- mientos, ética, moral y ser capaces de razonar por si mismos. 4. REFERENCIA BIBLIOGRAFICA Anónimo. (Enero del 2016).Nuka, la foca robot que mejora la salud de los ancianos. El comer- cio. Recuperado de: https://www.google. com/amp/s/elcomercio.pe/amp/tecnologia/ robotica/nuka-foca-robot-mejora-salud-ancia- nos-268307. Anónimo. (Septiembre de 2017). La amenaza real se llama inteligencia artificial. Diario de Sevilla. Diario. Recuperado de: https:// www.diariodesevilla.es/opinion/tribuna/ amenaza-real.llamada-inteligencia-artifi- cial_0_1173483099.html. Anónimo. (Septiembre de 2014). “El desarrollo de una completa inteligencia artificial podría. Protestante digital. Recuperado de:http:// protestantedigital.com/ciencia/34633/La_in- teligencia_artificial_podria_aniquilar_al_ ser_humano_segun_S_Hawking Anónimo. (03 de octubre 2017) Intel promociona Chip inteligente como el cerebro huma- no. Recuperado de:http://tecnomagazine. net/2017/10/03/intel-chip-inteligente-co- mo-cerebro-humano/ Anónimo (13 de octubre de 2017).Intel Loihi: Ca- pacidades cerebrales imitadas por un chip. Recuperado dehttps://www.globalnews10. com/intel-loihi-capacidades-cerebrales-imi- tadas-chip Castillo, O. (28 de septiembre de 2017). INTEL PRE- SENTA LOIHI, EL CHIP QUE IMITA EL CEREBRO HUMANO. Recuperado de: http://www.telcelsoluciones.com/articulos/ intel-presenta-loihi-el-chip-que-imita-el-ce- rebro-humano Fernadez,A.,Garcia,M.,Gonzales,E., y Tomé,S.(julio de 2016).Una perspectiva de la inteligencia artificial en su 50 aniversario.(p.p.1- 447 ).España:. Cameron, J.(Director).(1984).Terminator [Ciencia Ficción].Estados Unidos:Euro Film Fun- ding. Mayberry, M. (25 de septiembre de 2017)Intel’s New Self-Learning Chip Promises to Accelerate Artificial Intelligence. Recuperado de:ht- tps://newsroom.intel.com/editorials/inte- ls-new-self-learning-chip-promises-accele- rate-artificial-intelligence Smith,W.(Productor)y Proyas, A.(Director).(2004).Yo Robot.[Ciencia ficción].Estados Unidos:O- verbrookEntertainment. Wayra,F.(16 de febrero de 2015).verdaderos peligros de la inteligencia artificial.lavanguardia. Re- cuperado de: http://www.lavanguardia.com/tecnologia/innova- cion/20150206/54425888190/peligros-inte- ligencia-artificial.html. Shukman, D. (19 enero 2016).Stephen Hawking: la humanidad está en riesgo y muchos de los peligros los hemos creado nosotros mismos. BBC. Recuperado de: http://www.bbc.com/ mundo/noticias/2016/01/160119_stephen_ hawking_peligro_gtg
  • 69.
    52 RESUMEN El término “Wearable”es una palabra de significado literal “Portable o Ponible”. La mayor referencia es hacia el conjunto de aparatos y dispositivos electró- nicos que se incorporan en alguna parte de nuestro cuerpo interactuando de forma continua con el usua- rio y con otros dispositivos con la finalidad de realizar alguna función concreta Así la tecnología Wearable es integrante de la rama de la electrónica que está dise- ñada para ser vestida, bien puede ser llevada en una prenda de vestir o en un dispositivo aleatorio con un propósito y funcionalidad diferente de los objetos que siempre están a nuestro entorno. El desarrollo Weara- ble es directamente dedicada a la electrónica de con- sumo, es aquel dispositivo electrónico que se lleva so- bre, debajo o incluido en la ropa relacionado con “El Sistema de Internet de las Cosas”, que se refiere a la interconexión digital de objetos cotidianos relaciona- dos con internet, el termino de internet de las cosas se considera una parte de una red de objetos tangibles re- lacionados con la electrónica, software, sensores y la conectividad que permite la comunicación entre otros dispositivos con el usuario sin la intervención huma- na. La característica más importante de la Tecnología Wearable es su aplicación en tiempo real, y la capa- cidad de conectividad inalámbrica, en los diferentes dispositivos los cuales nos permiten ingresar diferen- tes tipos de información que serán almacenados en la memoria local, lo cual hará de cada dispositivo único para el portador. Palabras clave: Tecnología vestible, ropa inteligen- te, pulseras de actividad, ABSTRACT The term “Wearable” is a word of literal mean- ing “Portable or Ponible”. The greatest reference is to the set of electronic devices and devices that are incorporated into some part of our body interacting continuously with the user and other devices in order to perform some specific function. Thus the Wearable technology is part of the branch of electronics that is designed to be worn, or can be worn in a garment or a random device with a purpose and functionality different from the objects that are always around us. The Wearable development is directly dedicated to consumer electronics, it is the electronic device that is worn on, included or under clothing related to “The Internet System of Things”, which refers to the digital interconnection of everyday related objects with inter- net, the internet term of things is considered a part of a network of tangible objects related to electronics, sof- tware, Sensors and connectivity that allows commu- nication between other devices with the user without human intervention. The most important feature of Wearable Technology is its real-time application and the ability of wireless connectivity in different devices that allow us to enter different types of information that will be stored in the local memory, which will make each device unique to the Porter. Keywords: Wearable technology, smart clothes, activity wristbands, 1. INTRODUCCIÓN A lo largo de la historia se nota claramente el avance tecnológico que hizo que las personas ganaran el control sobre la naturaleza y construyeran una existen- cia civilizada. Gracias a ello incrementaron la produc- ción de bienes materiales y de servicios que reduje- ron la cantidad de trabajo necesario para fabricar una gran serie de objetos, la tecnología es la herramienta utilizada para hacer las cosas más cómodas y accesi- bles para la humanidad, el crecimiento respecto a la producción de nuevas cosas que se adaptan a nuestro diario vivir llega a ser muy notorio si nos pondríamos a clasificar la evolución de las mismas, el futuro so- ñado cada vez se aproxima más al presente e invade de forma natural como funciona el mundo de hoy, los wearables son la nueva tecnología que tendrá un gran impacto en la vida de las personas y cambiara el ritmo de cómo funcionaban las cosas hasta ahora. ¿Qué es un wearable? Una nueva palabra que definirá ELECTRÓNICA, DISEÑO, DESARROLLO, Y FABRICACIÓN DE DISPOSITIVOS PORTABLES EN LA TECNOLOGÍA WEARABLE Limachi Tapia Guillermo, Mamani Sosa Jorge Luis, Claros Choquemisa Cesar Raymundo Glimachitapiaguillermo@gmail.com, niden612@gmail.com, c.sar_claros@hotmail.com Universidad Mayor de San Andrés Carrera de Informática Gramática Española
  • 70.
    53 un nuevo estilode vida y que afectara de manera muy global a las personas tal como hizo el teléfono celular en sus inicios. “Los wearables representan una nueva generación de dispositivos inteligentes. La tecnología que hasta ahora encontrábamos en un ordenador o un Smartphone, de repente la podemos llevar puesta, por ejemplo, en nuestra muñeca. Hablamos de comple- mentos conectados con una función tecnológica que aporta un valor añadido al usuario”. (Buenas razones para invertir en wearables, s.f.). Wearables que se podría traducir del inglés como y siendo utilizado el término de “tecnología vestible”, es un avance que se pudo lograr en base a sólidos conocimientos y siendo también un buen ejemplo de aplicación respecto a internet de las cosas, abarcaría más que solo tecnología útil y precisa que uno llevaría fácilmente en objetos de diario vestir, se espera que el termino correcto a entender es el de “Ponible” ya que se está invirtiendo y desarrollando nuevas formas de usar los wearables para un beneficio mayor llevando sus principios de aplicación en actividades que aún no podríamos imaginar. Remontándonos en la historia y cómo surgió esta gran tecnología podríamos decir que “entendiendo  vesti- ble solo como aquel dispositivo electrónico capaz de ser programado por el usuario para realizar acciones complejas el primero lo inventó Steve Mann al final de la década de los 70”. (Tecnología vestible, s.f.). Cuando hablamos de wearables nos referimos a dis- positivos dotados de inteligencia y conectividad, di- señados para llevar puestos. La idea es mostrar la ne- cesidad de incorporar a nuestra rutina diaria hábitos que nos ayuden a facilitar el manejo de información y encajar más en la era de globalización de medios de comunicación siendo los wearables cómodos y de rápido acceso. 2. DESARROLLO Los dispositivos vestible o tecnología ponible (del inglés Wearable technology) son dispositivos electró- nicos que pueden ser implementados sobre o debajo de la ropa. Una de sus características es que permite la multitarea, esto quiere decir que no requiere dejar la actividad en la que estemos trabajando para poder utilizarlos y puede actuar como extensión del cuerpo o mente del usuario. Los dispositivos vestible como los monitores de acti- vidad son un buen ejemplo del Internet de las cosas, puesto que cosas como la electrónica, software, sen- sores, etc. son mecanismos que permiten a los objetos intercambiar información a través de Internet. A pesar de que en la actualidad van ganando popula- ridad, el intento de introducirlas al mercado de masas por parte de las empresas Xybernaut y ViA. Inc. tuvo muy poco éxito. A partir del año 2001 otras empresas como IBM pre- sentaron prototipos de dos relojes inteligentes con Linux como sistema operativo, Eurotech comenzó a fabricar ZYPAD (figura1). Un vestible de muñeca, Hitachi lanzo su dispositi- vo vestible al que llamo Poma, Fossil Inc. anuncio su Fossil Wrist PDA (figura 2, figura 3). Figura 1. Dispositivo vestible de muñeca ZYPAD. Fuente: (recuperado de Wikipedia de https://en.wiki- pedia.org/wiki/ZYPAD) Figura 2. Fossil Wrist PDA-Vista de tareas. Fuente: (Recuperado de https://www.geek.com/ hwswrev/pda/fossil/)
  • 71.
    54 Figura3. Fossil WristPDA-Vista de notas. Fuente: (Recuperado de https://www.geek.com/ hwswrev/pda/fossil/) En la actualidad los dispositivos vestible más usados son los relojes inteligentes o Smartwatch seguido de las pulseras de actividad y las gafas inteligentes. Se- gún su uso estos pueden clasificarse en cinco grandes grupos. Deporte y bienestar, Entretenimiento, Indus- trial, Militar y Medicina. Estos dispositivos tienen un fuerte impacto en el cam- po deportivo ya que tanto los relojes y las pulseras (fi- gura 4) permiten recopilar datos ligados a la actividad física y son los que acaparan mayor franja de mercado al ser cada vez más accesibles para el gran público. Figura 4. Smartwatch de la marca LG. Fuente: (Recuperado de http://www.lgmobile.cl/noti- cias/los-weareables-smartwatch-smartband/) Entrenadores, deportistas profesionales, y deportistas aficionados están cada vez más abiertos a dejar que la tecnología les eche una mano para optimizar su ren- dimiento y ayudarles en la prevención de lesiones, ya que estos dispositivos por pequeños que sean pueden recopilar y analizar más de 1000 referencias de datos en un tiempo increíblemente corto y luego transmi- tirlos a una pantalla en tiempo real, y de esta manera un personal médico es capaz de monitorizar el rendi- miento muscular, actividad cardiaca, ritmo de la respi- ración, etc. Ya existen wearables específicos según el deporte, desde los populares modelos para “running” (figura 5), hasta diseños para surfeo, y para deportes como el futbol y el tenis el uso de estos artículos inte- ligentes en competiciones es permitido, pero en otros casos como de la NBA siguen con restricciones. Figura 5.- Wearable “running” Fuente: (Recuperado de https://www.slideshare.net/ JoaoBocas/wearable-tech-show-17-wts2017-persona- lization-the-future-for-health-fitness-and-nutrition) Utilizado para monitorización de actividad, principal- mente derivada del uso como podómetro, para contar los pasos que la persona realiza a lo largo del día. Por otro lado, en el sector industrial los wearables se están convirtiendo en un recurso importante para me- jorar la eficiencia en la iniciativa de la Industria 4.0. Los wearables tienen un papel importante ya que be- nefician a los trabajadores en eficiencia, productividad y seguridad aportando valor a los proceso de fabrica- ción. En esta iniciativa los productos más utilizados son los Smart Glasses que permite a los trabajadores recibir información detallada de las maquinas que se están utilizando al igual que indicaciones para la re- paración de averías, y los Smartwatch, en la industria 4.0 tienen utilidades muy variadas como recepción y emisión de alertas, posicionamiento GPS, también contribuye a la seguridad y prevención de riesgos. (Martínez, 2015). Un producto bastante interesante y que dentro de poco será utilizado por las empresas es el Proglove, (figura 6) un guante inteligente que ayuda a los trabajadores en tareas de logística y fabricación. Es un ejemplo de “trabajador conectado”. Según la empresa que lo de- sarrolla, este guante utiliza tecnología RFID, motion tracking y sensores para facilitar las tareas al operario. Permite realizar escaneos automáticos, documentar la actividad realizada, ayuda activa en la secuenciación de tareas, o corregir errores cuando no se está realizando las tareas en el orden adecuado.
  • 72.
    55 Figura 6. Proglove,guante inteligente para la recopi- lación de datos. Fuente: (Recuperado de http://www.ainia.es/insights/ wearables-tecnologias-relevantes-para-la-indus- tria-4-0-y-el-consumidor/) 3. CONCLUSIÓNES La tecnología wearable se dio a conocer desde los años 70 y hasta ahora gracias a la ingeniería electró- nica, esta clase de productos se hizo comercial y en nuestra actualidad existen 2 productos ejemplares los cuales son los lentes desarrollados por google y los Smartwatch que son sistemas inteligentes “Ponibles”. Wearable será la nueva tecnología que abarcara los mercados internos y externos de todos los países, ya que serán objetos de uso cotidiano orientado a un pú- blico en general, ya que las empresas que desarrollan esta clase de tecnología procuran reducir el costo de cada clase de objeto, con el fin de que sea comerciali- zado en la economía promedio por lo tanto el objetivo principal es de brindar la información de tecnología wearable, pero esta no tiene un solo objetivo y se de- sarrolla en varias áreas tanto profesionales como de uso personal. Esta tecnología vestible ya destaca en el área de me- dicina con las “Pulseras de Actividad” que registran y monitorean la salud del usuario, por otro lado se ve el desarrollo en las plantas de fabricación, donde des- taca el Smartwatch el cual recepciona y emite alertas contribuyendo a la seguridad y prevención de riesgos, estos son objetos inteligentes que ya se encuentran en el mercado disponible a su compra. Tomando en cuenta el desarrollo de los wearables y como se aplicarían en un futuro se tendría un nota- ble cambio y progreso en el manejo de la información personal llegando así a mejorar y acelerar a nuestra sociedad, donde anteriormente se dispuso informa- ción introductoria respecto a su definición y peque- ños ejemplos que mostraban tanto su utilización como beneficio de los mismos, los wearable se introducen cada vez más en nuestro modo de vida, induciendo así a probar esta nueva y fabulosa tecnología. 4. REFERENCIAS BIBLIOGRAFICAS Bernardo, A. (2015) Informacione de desarrollo wea- rable: wearable tech recuperado el 12 de oc- tubre de 2017 de http://Blogthinkbig.com Blog/Industrias 4.0 (Noviembre 11, 2016), Vestidos de tecnología, Wearable en la industria. Re- cuperado el 11 de octubre de 2017 de http:// industria4.es/empresa/vestidos-tecnolo- gia-wearable-industria/ Buenas razones para invertir en wearables (Sin fe- cha). Recuperado el 12 de octubre de 2017 de http://wetech.es/es/buenas-razones-para-in- vertir-en-wearables/ Cruyff, J. (Marzo 10, 2017), Los wearables triun- fan en la industria del deporte, Barce- lona, España. Recuperado el 11 de octubre de 2017 de https://johancru- yffinstitute.com/es/blog- es/los-weara- bles-triunfan-industria-del-deporte/ Luque, J. (2016) dispositivos y tecnologías Wearable, ACTA Articulo. Recuperado el 11 de octubre de 2017 de: http://www.wea- rabledevices.com http://www.wearablete- chworld.com http://www.wearable-technolo- gies.com http://www.wearablesinsider.com Martínez, J. (2015-2016), Wearable: tecnologías relevantes para la industria 4.0 y el con- sumidos, Parque tecnológico de Valencia, España. Recuperado el 10 de octubre de 2017 de http://www.ainia.es/insights/weara- bles-tecnologias-relevantes-para-la-indus- tria-4-0-y-el-consumidor/Miller, M. (Sep- tiembre 08, 2002), Fossil Wrist PDA-PC FX2002. Recuperado el 11 de octubre de 2017 de https://www.geek.com/hwswrev/ pda/fossil/ Tecnología vestible. (Sin fecha). En Wikipedia. Recu- perado el 12 de octubre de 2017 de https:// es.wikipedia.org/wiki/Tecnolog%C3%A- Da_vestible Tecnología ponible. (Sin fecha). Recuperado el 12 de octubre de 2017 de http://wetech.es/ es/que-es-un-wearable-introduccion-la-tec- nologia-ponible/
  • 73.
    56 EL MUNDO DELAS REDES DE COMPUTADORAS: CARACTERISTICAS Y TIPOLOGÍA DE RED Larico Quisbert Cristhian Alejandro, Meneces Zelaya David Josue crisosem@gmail.com, davidmeneces98@gmail.com Universidad Mayor de San Andrés Carrera de Informática Gramática Española RESUMEN Uno de los mayores avances dentro de la ciencia de la computación son las redes computacionales. Las redes de computadora, también llamada red de ordenadores o red informática, es un conjunto de equipos u orde- nadores interconectados atreves de un enlace físico (alambrado) o inalámbrico (señales, ondas o cualquier otro método de trasporte de datos), la cual nos permite por sus características el compartir información tales como archivos, recursos y otros, también nos permite entablar comunicación con otros usuarios. Palabras clave: Redes, computacionales, computado- ra, sistema, transmisión, topología, usuarios, ordena- dores. ABSTRACT One of the biggest advances in computer science is computer networks. Computer networks, also called computer network or computer network, is a set of computers or computers interconnected through a physical link (wired) or wireless (signals, waves or any other method of data transport), which allows us to by its characteristics, sharing information such as files, resources and others, also allows us to establish communication with other users. Keywords: Networks, computational, computer, sys- tem, transmission, topology, users, computers. 1. INTRODUCCIÓN En este artículo se podrá contemplar las ideas princi- pales de las redes de computadoras, las características que presenta, su tipología, una breve reseña histórica a lo largo de los años, además de cómo está compuesta, de modo que está dividida y cuáles son los beneficios que nos brindan las redes de computadora ya que son muy importantes en nuestra vida cotidiana. Antes de entrar de lleno a analizar el tema hablemos sobre el significado del término red de computadoras, es importante que procedamos a determinar el origen etimológico de las dos palabras principales que le dan forma: Red, procede del latín, concretamente del vocablo “rete”, que puede traducirse como “malla para pes- car”. Computadora, por otra parte, también emana del latín ya que se encuentra conformada por tres componentes de dicha lengua: el prefijo “con-“, que significa “com- pletamente”; el verbo “putare”, que es sinónimo de “pensar o ponderar”; y el sufijo “-dor”, que viene a indicar un “agente”. No debemos confundir un sistema distribuido y red de computadores, consiste en que en el primer caso la existencia de múltiples computadores autónomos es transparente al usuario. En una red de computado- res, el usuario debe ingresar de forma explícita en una máquina y ejecutar una determinada acción o proce- so; en un sistema distribuido, es el sistema operativo el encargado de ejecutar tal acción, el usuario no es consciente de la existencia de múltiples procesadores. En general un sistema distribuido es un caso especial de red, y la diferencia fundamental está en el sistema operativo. Como ejemplo de un sistema distribuido tenemos un cluster Linux y como ejemplo de una red tenemos un dominio de Windows. 2. DESARROLLO 2.1. HISTORIA El primero avance sobre las redes de comunicación fue en las aéreas tecnológicas, telefónicas y telegrá- ficas. Aproximadamente a finales de las décadas de 1960 y posteriores a los 70 fueron creadas las primeras mini computadoras.
  • 74.
    57 En 1976, Appleintroduce el Apple I, uno de los pri- meros ordenadores personales. En 1981, IBM introdu- ce su primera PC. A mitad de la década de 1980 las PC comienzan a usar los módems para compartir archivos con otras computadoras, en un rango de velocidades que comenzó en 1200 bps y llegó a los 56 kbps (comu- nicación punto a punto o dial-up), cuando empezaron a ser sustituidos por sistema de mayor velocidad, es- pecialmente ADSL. 2.2. CONCEPTO Según Rodríguez Sanabria las redes de computadoras se definen como “Conjunto de dispositivos (computa- doras, impresoras, scanner, entre otros) interconecta- dos entre sí que permiten compartir recursos atreves de un medio de conexión”. Según Sandra Enríquez “es básicamente un conjunto de equipos conectados entre sí, que envían y reciben impulsos eléctricos, ondas electromagnéticas o simi- lares con el fin de transportar datos”. La definición más clara de una red es la de un sistema de comunicaciones, ya que nos permite comunicarnos (Figura1) con otros usuarios y compartir archivos y periféricos. Es decir, es un sistema de comunicaciones que conecta a varias unidades y que les permite inter- cambiar información. Se entiende por red al conjunto interconectado de or- denadores autónomos. (Figura 2) Se dice que dos ordenadores están interconectados, si éstos son capaces de intercambiar información. La conexión no necesita hacerse a través de un hilo de cobre, también puede hacerse mediante el uso de láser, microondas y satélites de comunicación. Actualmente con el avance de la tecnología se fueron implementando diversas tipologías de redes, cada una con diversas funciones y beneficios para los usuarios. Tabla 1. Ejemplos de Red. Fuente: (Anónimo, 2014) Figura 1. Ejemplo de comunicación mediante la red. Fuente: (Anónimo, 2014)
  • 75.
    58 Figura 2. Redes. Fuente:(Anónimo, 2016) 2.3. TIPOLOGÍAS DE RED DE COMPUTADO- RA 2.3.1 RED BUS. La red bus se caracteriza por tener una topología la cual cuenta un único canal de comunicación (denomi- nado bus, troncal o backbone) al cual se conecta los diversos dispositivos de esta manera todos los dispo- sitivos cuentan con el mismo canal para poder comu- nicarse entre sí. (Figura 3). Figura 3. Ejemplo de red bus. Fuente:( Anónimo, 2009) 2.3.2. RED ESTRELLA. La red estrella es una red se caracteriza por tener sus estaciones conectadas directamente en un punto cen- tral y la comunicación que deseen realizar deberá ha- cerse necesariamente a través de este. Dado su trans- misión, una red en estrella activa tiene un nodo central activo que normalmente tiene los medios para preve- nir problemas relacionados con el eco. (Figura 4). Figura 4. Ejemplo de red estrella. Fuente:( Anónimo, 2009) 2.3.3. RED EN ANILLO. Cuya topología de red se caracteriza por que cada es- tación está conectada a la siguiente y la última está co- nectada a la primera. Cada estación tiene un receptor y un transmisor que hace la función de repetidor, pa- sando la señal a la siguiente estación. Se utiliza sobre todo para redes locales.(Figura 5). Figura 5. Ejemplo de red anillo. Fuente:( Anónimo, 2009) 2.3.4. RED EN MALLA La topología en la red malla una red en la que cada nodo está conectado a todos los nodos. De esta ma- nera es posible llevar los mensajes de un nodo a otro por diferentes caminos. Si la red de malla está com- pletamente conectada, no puede existir absolutamen- te ninguna interrupción en las comunicaciones. Cada servidor tiene sus propias conexiones con todos los demás servidores. (Figura 6).
  • 76.
    59 Figura 6. Ejemplode red malla. Fuente:( Anónimo 2009) 2.3.5. RED EN ÁRBOL Cuya topología de red se encuentran los nodos coloca- dos en forma de árbol. Desde una visión topológica, la conexión en árbol es parecida a una serie de redes en estrella interconectadas salvo en que no tiene un nodo central. En cambio, tiene un nodo de enlace troncal, generalmente ocupado por un hub o switch, desde el que se ramifican los demás nodos. También podemos notar que es una variación de la red en bus, como dato adicional cabe hacer notar que la falla de un nodo no implica interrupción en las comunicaciones lo cual re- sulta muy beneficioso. En este tipo de red se comparte el mismo canal de comunicaciones. (Figura 7). Figura 7. Ejemplo de red árbol. Fuente:( Anónimo, 2009) TRAFI- CO VINCULO REQUERI- DO COSTO FACILI- DAD DE AÑADIR EQUI- POS DESVEN- TAJA MAS IMPOR- TANTE BUS Fácil contro- lar el tráfico en distintos equipos y termi- nales Fibra ópti- ca porque el tráfico es muy importante No es alto l costo en vínculos ya que utiliza uno solo a lo largo de la red Muy fácil la nueva terminal debe “colgar- se” del cable simple- mente Depende de un solo vin- culo toda la red ES- TRE- LLA Fácil de contro- lar su tráfico el cual es muy sencillo El par trenzado es aceptable ya que no hay pro- blemas de trafico Se usa más canti- dad de cables y hubs Depende de la po- sibilidad del hub (canti- dad de puertos) Se debe usar un cable para cada terminal ANI- LLO Son raras las conges- tiones causadas por el cablea- do Preferente- mente fibra óptica Mode- rado Para conectar otro nodo se debe paralizar la red La falta de un PC altera l red así como las distorsio- nes MA- LLA En caso de ave- rías se orienta el tráfico por caminos alterna- tivos Aunque lo ideal es la fibra ópti- ca, el par trenzado es aceptable Muy alto debido a la redun- dancia en ca- bleado, bridges, routers, pat- cheras mode- rado Quizá el más com- plicado por la estruc- tura del cableado tan abun- dante Poco econó- mica aunque costo trae bene- ficios mucho mayores Tabla 2. Cuadro comparativo de tipología de red Fuente: (Anónimo, s.f.) 2.4. OBJETIVOS DE LAS REDES Las redes computacionales como tal tienen un objeti- vo muy amplio, una de ellas es el servicio de archivos y el compartir recursos entre otros. En el ámbito laboral el objetivo de la red es propor- cionar una interconexión entre ordenadores para así poder correlacionar información de la empresa. Cabe mencionar que uno del objetivo es el de pro- porcionar una alta fiabilidad, ya que podemos contar con fuentes alternativas de suministro e información ya que al tener múltiples ordenadores al dejar de fun- cionar alguno, otro puede encargarse de la tarea del afectado. La red computacional también puede proporcionar medio de comunicación entre usuarios ya sea que se encuentren a una distancia considerable o muy aleja-
  • 77.
    60 da. Con elloindicamos que una red facilita hacer tra- bajos, compartir información, dialogar en tiempo real entre usuarios. El ahorro económico es otro de los objetivos y gran- des beneficios ya que la información se guarda dentro de aspectos totalmente virtuales. También el poder du- plicar información en uno o varios ordenadores lo cual resulta un gran beneficio económico. En fin, podemos ver que el objetivo básico de las redes computacionales son las de compartir recursos. infor- mación, disponibles para cualquier ordenador que se encuentre interconectado por medio de la red. 2.5. CARACTERÍSTICAS DE LAS REDES Las redes tienen diversas características entre las cua- les mencionaremos las más importantes. • Servicios de archivos. - Los archivos son algo fundamentales a la hora de manejar las redes, los usuarios o administradores deben tener un buen con- trol almacenamiento y protección del mismo. • Compartir recursos. - Los servidores a través de las redes computacionales pueden compartir re- cursos tales como archivos, programas y otros a los dispositivos ligados con los servidos u ordenador. • SFT (Sistema de tolerancia a fallas). - El SFT es un sistema que actúa en caso de que existan algunos componentes del ordenador que fallen, así es que se cuenta con un disco de respaldo donde se guarda la información del primer disco. pudiendo usarse el disco de respaldo en caso de fallo del pri- mero. • Sistema de Control de Transacciones. - Este es un método que presenta básicamente un plan- tel de protección de base de datos, mas propiamente cuando una operación falla al momento de escribir dentro de una base de datos este sistema deshace la transacción y la base vuelve a su estado original. • Seguridad. - El o los usuarios adminis- tradores de la red son los encargados de asignar derechos y claves de acceso a la red única para cada usuario con el objetivo único de proporcionar seguri- dad de información personal de cada usuario. • Acceso Remoto. - La conexión por medio de líneas telefónicas permite que el usuario pueda conectarse a lugares alejados con otros usuarios. • Conectividad entre Redes. - La conexión permite interrelacionar entre redes, la cual es segura y transparente. • Comunicaciones entre usuarios. - Una de las características esenciales de las redes es la comunicación entre usuarios lo cual permite no solo el dialogo entre los mismos sino también el que se pueda n compartir archivos y otros. • Servidores de impresoras. - Es un orde- nador que tiene como objetivo e controlar las im- presoras conectadas a ella (pueden conectarse cierto número de impresoras), para ello utiliza la memoria (en algunos casos especiales se utiliza un software) para gestionar la cola de impresoras por los trabajos proporcionados de la red. • Colas de impresión. - La cola de impresión permite modificar un documento después de pedir la impresión del mismo. 2.6. FORMAS DE ENLAZAR REDES DE COM- PUTADORAS Básicamente se pueden enlazar las redes de computa- dora de dos formas: • Cableado: Como su nombre indica esta forma consiste principalmente en la inclusión de cables que son en de tipo eléctricos (como Ethernet, HomePNA, power line communication o PCL, G.hn) y fibra óptica. • Inalámbrico: Esta segunda forma a su vez como su nombre indica no depende del cableado, su enlace se da por medio de Ondas de radio. 2.6.1. TECNOLOGÍAS ALAMBRADAS O CA- BLEADAS • Cable coaxial • ITU-T G.hn, que emplea cables del hogar (cable coaxial, línea telefónica y líneas de energía). • Cable de par trenzado, es el medio más utili- zado para todas las telecomunicaciones. • Fibra óptica. (Figura 8). 2.6.2. TECNOLOGÍAS INALÁMBRICAS O SIN CABLES • Microondas terrestres. • Comunicaciones satelitales • Tecnologías de radio (incluye celulares).
  • 78.
    61 • Comunicaciones ópticaspor espacio libre (FSO, siglas en inglés de free-space óptica). (Figura 9). Tabla 3. Accesorios para conectar la red. Fuente: (Anónimo, 2014) Figura 8. Tipos de cables de conexión a una red. Fuente: (Anónimo, 2015) Figura 9. Ejemplo de red inalámbrica. Fuente: (Anónimo, 2008) 3. CONCLUCIONES Como pudimos apreciar en el desarrollo del artículo, las redes de computadora son precisamente una parte esencial no solo a nivel doméstico sino también en lo laboral que ayudan a poder comunicarse e intercam- biar información entre los usuarios. Denominada como sistema de comunicación las redes de computadora como ya mencionamos nos facilita comunicarnos con otros usuarios y compartir archivos lo cual definimos como intercambio de información. Además pudimos contemplar los beneficios que nos ofrece la misma que tiene su base en el nacimiento de una era de comunicación por medio de una inter- conexión entre usuarios-ordenadores llamada redes computacionales. También cabe mencionar que no todo es bueno en las redes computacionales, se preguntaran el porqué, ya que en la actualidad existen los llamados hackers in- formáticos (los que actúan de forma antisocial) que van delinquiendo en la red, perjudicando a los usua- rios, interviniendo en los ámbitos sociales, económi- cos, laborales, etc. 4. REFERENCIAS BIBLIOGRAFICAS Alegsa, L. (3 de julio de 2016). Definicion de Red de Computadoras. Recuperado el 11 de octubre de 2017, de ALEGSA.ar.com: http://www. alegsa.com.ar/Dic/red_de_computadoras. php Anónimo. (21 de marzo de 2017). Redes informáticas i. tabla de elementos de una red (1). Recu- perado el 23 de octubre de 2017, de https:// www.slideshare.net/ferni7/redes-informti- cas-i-tabla-de-elementos-de-una-red-1 Anónimo. (s.f). Red de computadoras. Recuperado el 11 de octubre de 2017, de monografias.com: http://www.monografias.com/trabajos5/re- des/redes.shtml Anónimo. (s.f.). La gran red de computadoras: cómo funciona Internet. Recuperado el 17 de octu- bre de 2017, de Apser: http://www.apser.es/ blog/2015/07/27/la-gran-red-de-computado- ras-como-funciona-internet/ Casillas, M., & Domiminguez, R. (marzo de 2009). REDES DE COMPUTADORAS, TIPOS Y
  • 79.
    62 TOPOLOGIAS. Recuperado el11 de octubre de 2017, de Entradas (Atom): http://redesti- postopologias.blogspot.com/ Costales, Y. (7 de noviembre de 2013). Red de Com- putadoras. Recuperado el 11 de octubre de 2017, de EcuRed: https://www.ecured.cu/ Red_de_computadoras Flores, M. (s.f.). Cuadro Comparativo de redes. Recuperado el 23 de octubre de 2017, de MODULO 4: https://modulos1y2.jimdo. com/subm%C3%B3dulo-2/1er-parcial/cua- dro-comparativo-de-tipos-de-redes/ Fransisco, O. (s.f.). Redes de computadoras. Re- cuperado el 17 de octubre de 2017, de: Mind42:https://mind42.com/public/4ed- 5c86f-86f9-4e99-89b0-998198460b29 Gorgana, L. (s.f). Teoria de Redes de Computadoras. Recuperado el 11 de octubre de 2017, de : https://www.oas.org/juridico/spanish/cyber/ cyb29_computer_int_sp.pdf Henriquez, S. (4 de octubre de 2011). TIPOS DE RE- DES INFORMATICAS. Recuperado el 23 de octubre de 2017, de GOBIENO TI: ht- tps://gobiernoti.wordpress.com/2011/10/04/ tipos-de-redes-informaticas/ Pérez, J., & Merino, M. (2014). DEFINICION DE RED DE COMPUTADORAS. Recuperado el 11 de octubre de 2017, de Definición.de: https://definicion.de/red-de-computadoras/ Rodriguez, K. (9 de junio de 2012). Redes de computadora autor karina. Recuperado el 23 de octubre de 2017, de Slide Share: https://es.slideshare.net/KarinaSanabria/r edes-de-computadora-autor-karina
  • 80.
    63 EL OJO DEHALCON Y EL SISTEMA VAR EN FUTBOL Luis David Ajhuacho Tarquino Vladimir Wilson Hidalgo Quispe Jorge Luis Cori Sirpa Luisdac7@gmail.com, tekenver97@gmail.com, cori_text@hotmail.com Universidad Mayor de San Andres Carrera de informática Gramatica Española 1 INTRODUCCIÓN El ojo de halcón (Hawk-Eye) está compuesto por una red de cámaras de alta resolución situadas en diversos puntos del estadio que siguen la trayectoria del balón en todo momento, todos los datos que va recogiendo el sistema son analizados desde una base de datos que envía una señal al reloj inteligente del árbitro cuando el balón ha sobrepasado la línea de gol. La señal tarda aproximadamente un segundo en enviarse al árbitro. El sistema VAR en una asistencia por video donde el arbitro verifica si el balón en cuyo caso pasara la línea y marcara si fuera gol o si estuviera fuera del área correspondiente es una pequeña ayuda para facilitar el trabajo y volver el futbol mas transparente si goles fantasmaso fuera d líneas q no correspondan hay acciones en contra de un juego limpio y sin polemica 1.1PALABRAS CLAVES: Ojo de halcón, sistema VAR, futbol limpio, asistencia de video, reloj inteligente 1.2ABSTRACKS: The hawk eye (Hawk-Eye) is composed of a network of high-resolution cameras located at various points of the stadium that follow the path of the ball at all times, all data collected by the system are analyzed from a database that sends a signal to the referee’s smart watch when the ball has passed the goal line. The signal takes approximately one second to be sent to the referee. The VAR system in a video assistance where the referee verifies if the ball in which case the line passed and scored if it was a goal or if it was outside the corresponding area is a small help to facilitate the work and make football more transparent if phantom goals outside d lines that do not correspond there are actions against a fair game and without controversy 1.3KEYSWORDS: Falcon eye, VAR system, clean soccer, video assistance, smart watch 2DESARROLLO A partir de 2019 el organismo abrió un período de ensayos de dos años e instó a sus miembros a formar parte de una fase experimental, que servirá de mucho para tomar una decisión definitiva El ojo de halcón es una potente y precisa tecnología que se usa en algunos deportes como el tenis para comprobar la trayectoria y la velocidad de la bola en algunos de sus lances. Pese a que el ojo humano es una herramienta muy compleja, casi perfecta, es posible que no consiga vislumbrar de forma precisa algunas particularidades que se dan a velocidades muy elevadas. Por este motivo, en el tenis profesional se utiliza la tecnología más avanzada para decidir los lances del juego que el ojo humano no es capaz de percibir con la precisión necesaria. La tecnología ojo de halcón va mucho más allá de lo que podemos observar con nuestros propios ojos. Figura 1. Fijación de las cámaras en los arcos. (Fuente KBN next media 2012) 2.1¿Cómo funciona el ojo de halcón? Este sistema, desarrollado en 2001 por un equipo de ingenieros de la firma británica Roke Manor Research, utiliza una red de cámaras de alta velocidad para seguir los movimientos de la bola en algunos encuentros de críquet, billar inglés y tenis.  Los datos sobre su posición, obtenidos por triangulación, son procesados por un ordenador, que identifica en cada fotograma los píxeles que le corresponden. Luego, compara la información obtenida por al menos dos cámaras en un mismo instante para calcular en qué punto se encuentra.
  • 81.
    64 Con estas variables,genera un gráfico del vuelo de la pelota sobre la pista. Básicamente, lo que se consigue con el ojo de halcón es comprobar la trayectoria de una pelota para ver si ha salido o no del terreno de juego. Para esto se ponen en funcionamiento  8 cámaras que trabajan a alta velocidad, ubicadas en los puntos más estratégicos de la cancha. El sistema establece un cálculo sobre la trayectoria y la velocidad de la bola, es decir, a qué velocidad se mueve y su bote sobre la pista. Todo esto lo hace rapidísimo, por lo que en unos pocos segundos, puede crear unas imágenes en 3D, repitiendo la jugada. Esto se proyecta en una pantalla que pueden ver jueces, jugadores y público. El ojo de halcon enfocado en el futbol Figura 2. Marcación en el reloj del árbitro (Fuente marcas de futbol 2015) El ojo de halcón llegó a mediados del año 2012. Éste fue aceptado por la Internacional Football Association Boardya. El funcionamiento, en el fútbol, consiste en que cada arco hay 7 cámaras, las cuales hacen varias tomas  para generar una imagen en tres dimensiones. Al contrario del tenis, que tiene sensores, es que al público no se le muestra una repetición,  aunque al árbitro le llegará un mensaje de si fue gol o no. El balón inteligente, también llamado como el “goalref”, también interactúa con el ojo de halcón, ya que en lo que consiste es en dos partes del mecanismo: el primero es que se instala un dispositivo magnético  detrás de las porterías  que genera una especie  de cortina de onda debajo de los tres palos. Esta frecuencia magnética es baja. El ojo de halcón está basado en que se instalan arias cámaras enfocadas en las líneas de meta y sobre todo especialmente en los arcos donde se ve si el balón pasa la línea de meta, un ejemplo muy claro es que en el tenis se utiliza este sistema para ver si la pelota cayo dentro o fuera de las líneas reglamentarias y lo que se quiere hacer en el futbol es lo mismo hacer q este sistema se enfoque en esas partes donde el futbol es tan polémico y quitar los goles fantasmas goles q no fueron hasta salidas del balón pór las metas donde existe tanta controversia y peleas en este deporte, 2.2SISTEMA VAR La FIFA limita el uso del árbitro asistente de video a cuatro acciones que pueden cambiar el rumbo del juego: goles, penaltis, expulsiones y confusión de identidad en amonestados. Se activa de la siguiente manera: Cuando se produce una de las acciones contempladas, el árbitro principal o el juez de video pueden solicitar la revisión. Los jueces de video observan la repetición instantánea de la jugada e informan de lo que ha pasado al árbitro, a través del auricular. El árbitro principal tiene dos opciones: puede aceptar el criterio de los jueces de video, o ver el video en la banda y tomar su propia decisión. El objetivo final no es garantizar una precisión total en las decisiones arbitrales, sino revertir aquellos errores humanos que puedan condicionar el resultado. Gracias a la realización, los asistentes de video pueden ver la acción polémica desde distintos puntos de vista y aconsejar al árbitro principal, a quien siempre corresponde la decisión final. La FIFA recomienda que la decisión se tome en el menor tiempo posible para no alterar el ritmo de juego,​en general menos de un minuto. Los únicos capaces de solicitar la repetición son el árbitro y el asistente de video. Si un jugador o entrenador reclama su uso al colegiado, puede ser sancionado. El sistema de detección automática de goles se mantiene vigente para saber si el balón ha entrado en la portería,4 años más tarde, el mundial de clubes volvió a ser el campeonato para probar una nueva tecnología, en este caso la FIFA probó el sistema VAR de asistencia por vídeo al árbitro y volvió la polémica. El nuevo sistema cuenta con una sala de vídeo llena de asistentes que revisan la acción por televisión una y otra vez e informa al árbitro a través de los auriculares de lo que han visto, el árbitro puede confiar en sus asistentes o parar el partido y revisar la acción él mismo por televisión.
  • 82.
    65 Figura 3 sistemasVOR (Fuente Mundo Deportivo 2014) El sistema VOR es una de las partes más esenciales de este sistema Donde podemos ver en la figura dos como las personas están encargadas de verificar y dar la parte al árbitro de que ocurrió una irregularidad o no o de que si esta en lo cierto. El sistema de asistencia arbitral por video (VAR) volverá a estar mañana a disposición del árbitro en la revancha de la semifinal de la Copa Libertadores entre Lanús y River que se jugará en el estadio La Fortaleza. La tecnología impulsada por la Confederación Sudamericana de Fútbol (Conmebol) ya fue instalada en la sede de la semifinal de vuelta y este mediodía fue presentada por el uruguayo Jorge Larrionda, integrante de la Comisión de Árbitros (Extraído de TyC Sport 30 de octubre del 2017) En este partido que es muy importante en el ámbito de futbol enAmérica ya se está implementando el sistema VAR donde si ocurre algún problema la parte técnica VOR le llama al árbitro para q vea en un monitor donde se encuentra en el lugar donde está el cuarto árbitro e ir a verificar o en caso de alguna duda pida la repetición y se quite la dudad pero hay una regla estricta solo el árbitro principal puede ver el monitor ni los jueces d líneas ni el cuarto árbitro pueden ir a ver, estas son las instrucciones que se le da a los árbitros para este partido de prueba que se realizara en el partido de River Plate vs Lannus de argentina que disputarán el partido de vuelta por la fase de semifinales de la Copa Libertadores de América que se realizara el martes 31 de octubre del año 2017 en el Estadio Ciudad de Lanús, Remedios de Escalada Figura 4 Monitor del Sistema VAR (Fuente TyC Sport, 2017) Polémica sobre la implementación de estos sistemas Hoy en día es tan problemática la implementación d estos dos sistemas en el futbol ya que todos los espectadores están acuerdo y desacuerdo con estos sistemas ya que hay varios apoyos y comentarios en contra pero esto es esencialmente para quitar la polémica que generan varias cosas que después en los canales deportivos muestran y afirman y hacen ver q acciones tomadas de goles fueras de líneas tomadas por los árbitros fueron malas decisiones esto facilitaría y quitaría polémica a los partidos pero también los medios de comunicación se quedarían con menos contenido ya que son los principales en estará en contra de la implementación de estos, no todos hay q quedar en claro que si algunas programas están a favor, viendo por otro lado por parte de la afición que estaban a favor de estos sistemas ya que no complicarían a varios equipos y quitarían los errores y la afición estaría tranquila eso podríamos decir ya que de todos modos es un deporte muy polémico no solo por si fue o no gol, es por eso que todo esto está en una etapa de prueba y lo están empezando a implicar en los partidos finales de la Copa Libertadores de América del año 2017 Figura 5 Copa libertadores de America (Fuente La Tercera, 2017 )
  • 83.
    66 2.3. EL OJODE HALCÓN HA DADO EL MEJOR EJEMPLO DE CÓMO FUNCIONA EN LA CHAMPIONS LEAGUE Marcus Rashford cobró un tiro libre desde la banda izquierda, el guardameta del conjunto portugués se confió en un balón que no llevaba peligro, pero no hizo bien el recorrido y terminó deteniendo el esférico dentro de su propia portería. Figura 6 Galería | Champions League (Fuente, FOX sports 2017 ) Mile Svilar pasó a la historia de la UEFA Champions League al convertirse en el portero más joven en debutar en el torneo con 18 años de edad. El ojo de halcón ha dado el mejor ejemplo de cómo funciona en la Champions League, el árbitro alemán Felix Zwayer tuvo que apoyarse de la tecnología para dar por válido el gol de Rashford a los 64 minutos de juego. Las cámaras mostraron el momento exacto en el que el árbitro recibía en su cronometro la palabra GOAL, ya que el balón cruzó totalmente la línea de gol.  2.4. RÉFERI CON OJOS DE HALCÓN (FIFA) El proveedor designado por la FIFA para la implementación del VAR es Hawk-Eye, una compañía de la firma Sony que ya presta el servicio a las ligas antes mencionadas y además a las de otros deportes: tenis, automovilismo, hockey sobre grass y sobre hielo, vóleibol, rugby, snooker, equitación, baloncesto, cricket, béisbol, bádminton, atletismo, entre otros.  En el caso del fútbol, el VAR será empleado para esclarecer cuatro situaciones: goles (determinando que el balón haya traspuesto completamente la línea de meta); penales (para asegurar que la decisión de cobrarlo sea la adecuada); expulsiones; e identidades confundidas (cuando el árbitro no está seguro de qué jugador merece la sanción a imponerse). Figura 7 | Rusia 2018 Fuente: la ciencia juega mundial Hawk-Eye es la primera firma en recibir la licencia de la FIFA Goal Line Technology. Básicamente, consiste en una red de videocámaras —a partir de 7 por arco— instaladas en el techo de los estadios, sobre y apuntando hacia la cancha, logrando captar el balón desde diversos ángulos, permitiendo determinar cuando la pelota ha traspuesto completamente la línea de gol. En caso de detectar anotación, el sistema envía automáticamente una señal al reloj del juez. El sistema combina las imágenes de las siete cámaras para determinar el tanto, aunque es capaz de hacerlo incluso si la bola solo es visible en las tomas de dos cámaras, con precisión milimétrica. El sistema puede superar no solo las capacidades del árbitro, sino incluso la precisión de las informaciones que brindan las televisoras encargadas de las TRANSMISIONES OFICIALES. 3.1. SALA DE CONTROL OJO DE HALCÓN En la MLS, el VAR tiene acceso a todos los ángulos que ofrece la emisora ​​de partido. Mientras IFAB, el organismo de gobierno internacional a cargo de las Reglas del Juego, requiere un mínimo de cinco ángulos para la revisión del video, la MLS tendrá al menos ocho por cada partido. Para iniciar una “comprobación”, el VAR presionará un botón rojo que hace aparecer un cronómetro en su monitor. En este punto, el árbitro aún no ha sido contactado, es simplemente una señal visual para el VAR. Aunque el VAR tiene la capacidad de elegir ángulos, acercar, ralentizar el metraje o reproducir el video cuadro por cuadro, ese deber se deja en gran medida al operador. Mientras tanto, el asistente vigila el avance del partido
  • 84.
    67 en vivo. En casode que ocurra otra situación que merezca revisión, mientras el VAR todavía está evaluando el caso previo, el asistente tiene un botón verde que presionará para señalar otro control en cola. El asistente también utilizará el sistema de mensajes Slack para comunicarse con los locutores, los medios, el locutor público y el operador de la tarjeta de video. Se informará a todas las partes si se inicia una “revisión” formal, y se brindará una explicación del resultado más adelante. Y el ángulo decisivo de la cámara se enviará a los organismos de radiodifusión y al operador de la placa de video. ¿Demasiada tecnología para el deporte más lindo del mundo? La única forma fehaciente de saberlo será verlo en el gramado y en su máxima cita, la Copa Mundial que arranca en Rusia a mediados de año. 3 CONCLUSIONES Incluyendo los sistemas de ojo de halcón en todas las competiciones importantes y el vídeo arbitraje asistente se terminaría con la mayoría de las polémicas que llenan las salas de prensa, los programas y diarios deportivos, una tecnología que ya está y puede ser aplicada fácilmente. La tecnología que avisa si el balón ha entrado o no tan solo necesita de 1 segundo para informar al árbitro. Esta tecnología mejoró la figura del árbitro que puede tomar una decisión certera en segundos cuando se produce una situación conflictiva, no interrumpiría el juego en la mayoría de situaciones ya que este tipo de situaciones provocan las protestas masivas de los jugadores que se puede alargar durante minutos. Uno de los cambios más importantes que llegarían al mundo del fútbol gracias a la tecnología serían las prendas deportivas con cámaras, una tecnología que nos hace vivir el deporte en primera persona y que ya ha sido probada en algunos partidos. Una de las empresas pioneras de este tipo de tecnología es la española First V1sion que han colocado una cámara en una camiseta para que nos pongamos en la piel del futbolista. Esta revolución llegó a otros deportes con las cámaras deportivas que han cambiado la visión de los espectadores creando imágenes realmente impresionantes. última canasta del partido estaba dentro de tiempo o no, ¿por qué no se puede aplicar la tecnología en el fútbol? Uno de los motivos principales al rechazo de la tecnología es que esto supondría una brecha muy grande entre el fútbol de máxima competición y el amateur, los millones de jugadores asiduos no tendrían la oportunidad de arbitrar una jugada por vídeo. Sistema VAR es una innovación sobre la tecnología en el futbol muy polémica entre el ámbito deportivo pero que ayuda mucho a lo árbitros y tales como a los equipos y a que el futbol sea más transparente. 4.REFERENCIAS BIBLIOGRAFICAS Diaz.R.(2017, febrero 21).CÓMO FUNCIONA EL “OJO DE HALCÓN” O “HAWK-EYE” EN EL FÚTBOL.KBN.Recuperado de http:// kbnmedia.com Santander.P.(2016,noviembre 13).QUE ES EL OJO DE HALCON.rahhal.Recuperado de https:// www.rahhal.com/blog Otazu.G.(2016, marzo 5).El IFAB ACEPTA INTRODUCIR EXPERIMENTOS DE ASISTENCIA POR VÍDEO PARA ÁRBITROS.La FIFA.Recuperado de http:// es.fifa.com/about-fifa/news Romero.R(2017, abril 21).QUÉ ES Y CÓMO FUNCIONAELVÍDEOARBITRAJE EN EL FÚTBOL?.tecnología del futbol.Recuperado de https://football-technology.fifa.com/es/var Cazu.B.(2017, abril 20).EXPERIMENTOS CON ASISTENTES DE VIDEO.La FIFA. Recuperado de http://es.fifa.com Cáceres.B.(2017, abril 28).QUE ES LO QUE NESECITAS SABER DEL VAR?.a-league. Recuperado de https://www.a-league.com/ news Sepúlveda.E.(2017, marzo 9).NO MÁS ERRORES? LOS ÁRBITROS ASISTENTES DE VIDEO PODRÍAN CAMBIAR EL FÚTBOL PARASIEMPRE.the guardian.Recuperado de https://www.theguardian.com/football/2017 Fuentes.R.(2017, septiembre 29).ASÍ FUNCIONARÁ
  • 85.
    68 EL VAR AQUÍ.AS.Recuperadode https:// as.com/futbol García.G.(2017, marzo 28).GRIEZMANN: “CON EL VAR SE PIERDE UN POCO LO QUE ES EL FÚTBOL”.Marca.Recuperado de http:// www.marca.com/futbol/seleccion Serrano.L.(2017, marzo 28).A ESPAÑA EN EL VAR NO LE GANA NADIE.OK DIARIO. Recuperado de https://okdiario.com/deportes/ futbol Lopez.F.(2016 , enero 22).MAYOR USO DE LA TECNOLOGÍA DE LÍNEA DE GOL.FIFA. Recuperado de http://www.fifa.com.es/ noticias Singa.I.(2017, noviembre 1).AUMENTA LA POLÉMICA POR EL USO DEL VAR TRAS JUEGO RIVER VS. LANÚS.EL COLOMBIANO.Recuperado de http://www. elcolombiano.com/deportes/futbol Buxeres.L.(2016, diciembre 15).¿QUÉ ES Y CÓMO FUNCIONA EL VIDEOARBITRAJE EN EL FÚTBOL?.La vanguardia.Recuperado de http://www.lavanguardia.com/deportes/ futbol Brown.H.(2017, octubre 29).TODO LO QUE TENÉS QUE SABER DEL VAR, LA ASISTENCIA POR VIDEO EN EL FÚTBOL.la nacion. Recuperado de http://www.lanacion.com.ar Johnson.R.(2016 diciembre 17).ZINEDINE ZIDANE APOYÓ EL USO DE LA TECNOLOGÍA EN EL FÚTBOL.El Tiempo.Recuperado de http://www.eltiempo.com/deportes/futbol- internacional Sandoval.O,(2017, octubre 22), Champion league: El mejor ejemplo de como funciono el ojo de halcon. Fox.Sports.Recuperado de: http://www.fox- deportes,com Huerto.H.(2017.octubre.12). Un arbitro con ojos por todos lados, ¿arruina el mundial?.nmas1. Recuperado de: http://nmas1.org/blog/2017
  • 86.
    69 HACKEO: UN ARMADE DOBLE FILO Arteaga Gutierrez Diego Alejandro alpha01.da@gmail.com Universidad Mayor de San Andrés Carrera de Informática Gramática Española RESUMEN Como criaturas racionables, los humanos siempre hemos buscado facilitar nuestro trabajo a través del tiempo.Lo que nos ha llevado, de crear la rueda, a los grandes avances tecnológicos de hoy. Gracias al fácil acceso al internet junto con esa comodidad que tene- mos, podemos llegar a colgar información en la red que no siempre está protegida contra otros individuos .Los cuales pueden usar nuestra información personal a su antojo sin nuestro consentimiento. Saber cómo evitar ser víctima de un hacker es algo que nos podría ayudar a evitar eventos bastante desagradables. Palabra clave: Hacker, Metaverso, Información, Anonymus, Ingeniería social. ABSTRACT As rational creatures, humans have always sought to facilitate our work, over time. What has taken us, to create the wheel, to great technological advances of today. Thanks to the easy access to the internet plus that comfort that we have, we can get to hang informa- tion on the network that not always protected against other users. Who can use our personal information at will and without our consent. Knowing how to avoid being a hacker is something that could help us avoid quite unpleasant events. Keywords: Hacker, Metaverse, information, Anony- mus, Social Engineering. 1. INTRODUCCION Vivimos en un mundo donde grandes y variadas cria- turas habitan. Cada una de ellas se mueve por una ra- zón que va más allá de nuestro entendimiento. En este basto mundo los humanos nos hemos auto categoriza- do como seres pensantes y racionales. La racionalidad es lo que nos ha llevado a diferenciarnos de los animales, no- sotros nos preguntamos el porqué de las cosas. Y es evidente que tenemos algo diferente de otros seres una inquietud por querer hacer nuevas cosas. Esos factores transformaron al Australopitecos de la prehistoria al hombre moderno de hoy. Capaces de construir cons- trucciones gigantescas, alzar casa en lugares inhós- pitos, cultivar alimentos en lugares tan áridos. Día a día estamos desafiando nuestras propias ciencias. Uno de los mejores inventos es el internet sin duda. Cada vez más accesible y barato, nos ha facilitado la vida, tanto que todos los aspectos en nuestra vida lo que- remos poner en un plano al cual podamos acceder en cualquier momento sin importar el lugar. Pero no todo es gozo, la red posee peligros que mucha de la gente que la usa, desconoce. Y puede llevar a que tengamos desde pequeños problemas a ser víctimas de chantajes y extorsiones peor gente que puede tomar el poder de toda la información que tenemos, sin nuestro permiso .2. DESARROLLO La humanidad desde sus inicios siempre ha sucumbi- do a la curiosidad por saber más.Desde los hombres de las cavernas hasta el hombre del mundo actual, esa pasión innata por el conocimiento no se ha perdido. Lo que con el paso de los años, con el avance de la tecnología haga que creemos un -metaverso- . Este término fue usado en su novela Snow Crash , que fue publicada en 1992. Y se refiere al mundo virtual en el cual habitan todos los datos de información en la vida real. Es decir es el mundo virtual donde tiene efecto cada acción que realizamos en nuestra computadora, celular, etc. Podemos decir que este es un mundo que se sabe que está ahí pero muchos no conocen de qué se trata más cuando hoy en día a diario estamos conec- tados con él. Una simple acción tan común para noso- tros, personas internautas, como mandar una foto, ac- ceder a una cuenta de correo o enviar un mensaje por medio de WhatsApp, se transforma en millones de da- tos que viajan por una red para ser desencriptados por el receptor. Es ahí donde antes de realizar cualquier acción debe nacer la pregunta ¿Quién manipula estos datos? Todos los millones de datos que intercambia- mos a diario, ¿A dónde van? ¿Cómo se manejan? La respuesta puede estar más allá de lo que imaginamos.
  • 87.
    70 No es queestán flotando sin restricción. Los cursos y las direcciones están dados externamente por otras personas. Por ejemplo las compañías de servicios de redes, de sitios web, el FBI y personas externas con conocimiento de informática. Todas las personas que están en las redes sociales a diario ignoran esto. Si bien es verdad que las compañías no hacen nada inde- bido con tu información por ética, las personas exter- nas a estas que acceden a nuestra información pueden manipularlas a su antojo. Es ahí donde aparecen los hackers. 2.1 LOS HACKERS Pero ¿Qué es un hacker? La RAE solo lo define como un pirata informático, es decir, alguien con grandes conocimientos sobre informática, que ingresa a una red u ordenador personal de formas ilegal. Es la definición más acertada, ya que cualquiera pue- de ser un hacker, lo que nos diferencia de ser grandes y buscados delincuentes informáticos es el nivel que conocimientos que tenemos, lo que por siguiente nos da el nivel de a que sistemas podemos meternos. No tiene la misma relevancia hackear una cuenta de Fa- cebook, que una cuenta de banco. Ambos son delitos, sí, pero el daño es mucho mayor. Teniendo en cuenta la afirmación de antes, cualquiera puede ser un hacker, podemos decir que lo que diferencia de un internauta de un hacker, es saber un poco más. Puede que uno piense que se necesita una carrera uni- versitaria para conseguir estos conocimientos, pues puede que ayude pero no es del todo verdad. Hoy en día el mismo internet que usamos a diario para ser víc- timas, nos da las herramientas para ser victimadores. Alguien con curiosidad puede leer un poco en algún sitio web y encontrar herramientas para violar la pri- vacidad de otro usuario. Es basta la ignorancia en la que los internautas vivimos que casi todo el tiempo damos información personal o facilitamos el acceso a nuestras cosas privadas a través de internet, que el poder tú mismo obtener información no es tan difícil. Las personas se extrañan al oír el termino hacker, pero es tan común que en países donde se tiene internet, ya están presentes estos individuos. Siempre se encuentra un antagonista en todas las historias, hoy en día gente se dedica al oficio de ro- bar cuentas personales para beneficio propio o de alguien más, es verdad que se ha vuelto un negocio muy rentable ya que cada vez todo lo ponemos en la red. Para facilitarnos la vida, pero a la vez no saber los peligros, hace que entremos a un plano totalmente vulnerable y peligroso. Uno con la idea más inocente puede compartir información, datos sobre su familia o trabajo por medio de cualquiera de una red social. Pero en el mismo instante un hacker contratado, me- diante un hardware maligno puede estar tratando de ingresar u obtener la clave de acceso de este usuario para así el poder tener esta información y manipularla a su conveniencia. Llevando esto a otro nivel, mucha gente en países más avanzados se dio cuenta del poder que conllevaba al tener información de usuarios que, preferir mantenerla en secreto, fueron extorsionados y manipulados. Países enteros han sido víctimas de los hackers, los cuales les han robado información y vuelto pública. Con la ideología de que los países más poderosos no tienen el poder de ocultar información. Uno de los términos que se debe aparecer en nuestra mente al es- cuchar esto es “Anonymus”. 2.2 ANONYMUS La gente tiene una idea errada sobre esta palabra y es que, cuando se pregunta a la gente sobre que entien- de por esta palabra, lo primero que piensan es “los hackers más fuertes del mundo” (esta afirmación está basada en una encuesta a 20 personas aleatorias) lo cual está totalmente equivocado. Anonymus es un término en inglés que significa “anó- nimo” traducida al español, y se da a un movimiento internacional de internautas. Quienes consideran que el conocimiento dado en la información es libre y to- dos tenemos igual acceso a ella. Hasta hoy en día no se sabe cuántos miembros pertenecen exactamente a este grupo. Pero si se sabe que al tratarse de un fenó- meno nacido por el internet se ha expandido a nivel mundial. De forma que es casi imposible establecer una sede o un líder, todos los miembros son iguales. Anonymus a lo largo de la historia ha tenido varios episodios importantes, pero el más relevante y de inte- rés es justamente cuando surgió. En el año 2006 Julian Assange, un programador y periodista Australiano, fundo Wikileaks, que es un sitio de internet dedicado a difundir documentos de estados privados,al conoci- miento público .En su debido momento y por razo- nes obvias Assange fue perseguido y grandes compa- ñías le negaron ayuda, tal como: Visa,  MasterCard, PayPal o Amazon. Ahí es donde anonymus dio su total apoyo a Julian. Provocando la caída de servi- dores en todo el mundo. A partir de ahí , este grupo ha
  • 88.
    71 hecho saber almundo que existía lo que causó revuelo y llevo a manifestaciones en las calles en España, con máscaras blancas , símbolo de anonymus, que hoy en día se conoce bastante . Figura 1. Mascara de Anonymus Fuente: (telesurtv , 2005 ) Con la aparición de anonymus al espaciopúblico es obvio que la gente se interesómás en el tema de la informática, dio origen a ataques poro ya realizados por usuarios. Contra otros usuarios. La policía en va- rios países tomó protagonismo en el frenar o al menos reducir el índice de esto, dando origen a los delitos informáticos. Lo más común que usa un hacker inde- pendiente hoy en día es la ingeniería social. 2.3 INGENIERÍA SOCIAL La ingeniería social es una manipulación psicología de una persona a otra. Es obvio que una persona tie- ne la información más importante de sus cuentas en su mente, entonces un hacker trata de obtenerla pero ¿Cómo obtener información que está en la mente de otra personal? Pues el hacker, puede iniciar una char- la muy espontanea con su víctima, puede parecer un simple amigo nuevo amigable, quien mediante labia logra ganarse la confianza y es donde saca la infor- mación de su víctima sin que se dé cuenta. Existen varias y muchas formas de sacar información y según el modo de hacerlo se pueden nombrar de manera di- ferente según las características. 2.3.1 PISHING El pishing consiste en la práctica de un una persona crea un microprograma que está cargado de un virus troyano para la víctima. Entonces la hace llegar a las personas mediante un link externo. El objetivo del ata- cante queahí es donde se ve la creatividad del hacker, muchos hacen pasar este malicioso link como una en- cuesta o que el usuario gano algo. Figura 2. Pishing Fuente: (vodafone, 2017) 2.3.2 VISHING El vishing es un método que usan los hackers actuales por el cual pueden extraer personal importante sin un gran esfuerzo. Consiste en que recibas unallamada o un mail, don- de te habla alguna persona de tu compañía telefóni- ca, o tal vez del banco donde guardas tus ahorros y comienza a hacerte preguntas acerca de tu vida y tú, creyendo su identidad le facilitas información. Esta técnica se ha vuelto muy popular ya que las personas no siempre piden un credencial o algo que identifique a alguien, que dice ser miembro de alguna empresa o institución. Es importante tener en cuenta toda la información para no caer en la trampa y llegar a ser estafado o engañado. 2.3.3 BAITING Este método no es tan popular ya que se necesita un poco más de conocimiento. El hacker debe crear o simplemente conseguir un software malicioso que instalado a una computadora, da la instrucción al es- quipo de que envié información o deje los sistemas de seguridad inhabilitados. De tal modo que se hace una “entrada” fácil para que el hacker robe todos los da- tos que quiera. Pero, ¿cómo es que podría instalar este programa? Nadie dejaría que un extraño instale algo en su equipo con su consentimiento. Pues bien , los piratas informáticos se dan métodos, como el de cuan- do el usuario no esté viendo introducir una memoria USB y el ataque se habría concretado . Al mismísimo estilo de las películas de Hollywood, habríamos sido hackeados.
  • 89.
    72 Otro modo quese ha conocido es el de que los hackers dejan en ligares públicos o por donde saben que una víctima especifica va a caminar, puede ser en la ace- ra, en el aula de algún colegio o universidad, un baño público, etc. Entonces cuando uno pasa y ven en el suelo una me- moria USB obviamente la recoge y la pone en su com- putadora. Basta ese pequeño e inocente acto para dar por terminada la tarea que un hacker ha comenzado. Figura 3.Baiting Fuente: (SPAMfighter, 2011) 2.3.4 CONSEJOS PARA EVITAR SER HACKEA- DOS Después de ver tantas formas de ser hackeados, po- demos darnos cuenta de que ignorábamos mucho la importancia de cuidar nuestra información. Con lafa- cilidad de conseguir acceso hoy en día al internet nos vuelve a todos internautas y eso nos vuelve también potenciales víctimas de un hackeo. Por lo que todos debemos tener ciertos cuidados con toda nuestra in- formación para que se mantenga la privacidad que de- seamos. Por eso a continuación están algunos de los consejos que debemos tener en cuenta para evitar así un robo de información. • Nunca dejes tus equipos personales a cuida- do o disponibilidad de otras personas. • No des información a alguien que dice ser de alguna empresa sin antes ver algo que valide esto. • Evita abrir links que no concuerden con la página que te dijeron. Por ejemplo si te dicen que es un enlace de Facebook el enlace debería pare- cerse a : • www.facebook.com/etc/es_un_ linkgenuino • Siempre el nombre de la página está en el link. • Evita “loguearte” en otra dirección que no sea del sitio oficial. Loguearse es un término que se usa hoy en día y significa cargar tu cuenta. Vie- ne de la palabra en inglés “login” que significa: iniciar sesión. • Es decir, cuanto ingresas tu contraseña e usuario, en ese momento tú te estas “logueando”. • Cierra tu sesión en un equipo que no sea de uso personal. Cuando vayas a un café internet o entres a tu cuenta desde el dispositivo de otra per- sona, siempre cierra tu cuenta. no confíes en que ella lo hará, verifica que esté cerrada. 2.4 HACKING ÉTICO El hackeo tiene un lado, si bien no es malo, es menos oscuro como robar información. Varias empresas con- tratan a programadores o hackers para que hackeen su sistema. Esto puede parecer muy confuso, ya que sería equivalente a que paguen a alguien para que te robe. Entonces nos surge la pregunta ¿Por qué las empresas contratarían a personas para que los hackeen? Pues bien, el motivo es que una vez que el sistema es vulnerado el hacker reporta los errores de seguridad a ña empresa. Es decir da cuenta de todos los puntos débiles en un sistema. La empresa teniendo conoci- miento de sus fallas las corrige y esto permite que en un futuro alguien que si quiera hacerles daño tenga el camino más difícil o casi imposible. Logrando así un sistema mucho más fuerte y seguro. Es así que algu- nos sitios en el mundo o empresas grandes casi nunca reportan que han sido hackeados porque siempre van corrigiendo sus puntos vulnerables. Es por eso que se contrataría a hackers. Si bien no existe una política que obligue a las em- presas a hacer esto, es bastante aconsejable hacerlo, ya que no puedes confiar millones de archivos de in- formación importante en un sistema al cual no le has hecho exámenes de seguridad. Es bastante importante tener niveles de seguridad para proteger nuestros da.
  • 90.
    73 Figura 4. Lasdos caras del Hacking Fuente: (Exploiter, 2015) 3. CONCLUSIONES El fácil acceso al internet hoy en día ha dado a todo el mundo las herramientas para que cualquier persona pueda convertirse en un hacker potencial, Al mismo tiempo todos podemos ser víctimas de un hackeo. Si uno tiene cuentas en algún sitio de internet ya se con- sidera un cibernauta y ya está dentro del grupo de po- sibles objetivos. Existen muchos métodos y maneras por las cuales los piratas informáticos roban información, por lo que la seguridad y precaución al momento de manejar nues- tra información personal debe ser muy alta. Debemos estar muy atentos y ser precavidos con nuestra infor- mación, donde la escribimos, a quien se la damos, etc. No confiar cosas privadas en cualquier persona que dice ser de confianza. No todo en el mundo del hackeo es malo, podemos encontrar un lado bueno de los hackers. Ya que solo conociendo nuestras debilidades podremos corregirlas mientras que si nos confiamos en que todo está bien, corremos el riesgo de perder mucho más. Es aquí cuando el refrán “mejor prevenir que lamentar” cobra un significado más notable. Cuidemos nuestra infor- mación y ningún evento desagradable e inesperado ocurrirá. Existe mucha más información sobre este tema que no se puede dejar de lado. Un deber como cibernautas es informarnos. Es explorar un nuevo mundo en el que vivimos. Significa saber más alla de esencial, es saber lo necesario. 4. REFERENCIAS BIBLIOGRAFICAS Anónimo (2009). Hacking, cracking y otras defini- ciones. Recuperado de: www.duiops.net/hac- king/hacking-cracking.htm AVAST Software s.r.o. (2015). Pishing. Recuperado de: https://www.avast.com/es-es/c-phishing Cornejo, P. Forero F. (2012). Técnicas de Hackeo. Re- cuperado de: https://es.slideshare.net/semi- nario4/exposicin-tcnicas-de-hackeo Juanlo, (3 abril del 2014). ¿Qué es el metaverso? Recuperado de: https://www.realovirtual. com/noticias/566/que-es-metaversoe Gonzáles, A. G. (2 de Enero del 2009).Hacker. Recu- perado de: https://www.definicionabc.com/ tecnologia/hacker-2.php Garzon, L. (13 de Marzo de 2016). Tipos de piratería. Recuperado de: https:// prezi.com/-zf5ml4n7u8g/tipos-de-hackeo/ Gonzales, G. (24 de Marzo del 2015). ¿Qué es la ingeniería social? Recupera- do de:https://hipertextual.com/2015/03/ que-es-la-ingenieria-social Kabay, M. E. (20 de Enero del 2004). Baiting hackers. Recuperado de: https://www.networkworld. com/article/2329759/lan-wan/baiting-hac- kers.amp.html Milá, L. (2017). EE.UU. Contra Wikileaks: Una gue- rra de fin incierto. Recuperado de: http://www.rtve.es/noticias/ filtracion-wikileaks/ Real Academia Española (2017). Recuperado de: http://lema.rae.es/dpd/srv/ search?key=hacker 2005 Setfree, L (2015) ¿Qué es un hacker? Recuperado de: https://www.vix.com/es/btg/tech/13182/que- es-un-hacker Shin, L. (4 de Enero del 2017) Be Prepared:The Top ‘Socia Engineer- ingl’Scams Of 2017. Recuperado de: https:// www.forbes.com/sites/laurashin/2017/01/04/ be-prepared-the-top-social-enginee- ring-scams-of-2017/#11633d477fec Sierra, D. (28 de Febrero del 2012).¿Qué es Anon- ymus? Recuperado de: http://www.rtve. es/noticias/20120228/anonymous-quie- nes-son-como-actuan/438765.shtml
  • 91.
    74 RESUMEN El avance dela inteligencia artificial dio pie a una nue- va era y a la creación de nuevos productos capaces de imitar el comportamiento humano nos muestra un futuro en el cual podríamos automatizar por completo las actividades hechas por humanos. La inteligencia artificial en la última década y los grandes avances de esta han tenido un impacto masivo en la forma de realizar nuestras actividades diarias, ya sea en diferen- tes aplicaciones de reconocimiento de voz, reconoci- miento facial, en el motor de búsqueda de google, y es fundamental en dispositivos electrónicos actuales o en programas como la navegación por GPS y video- juegos. La inteligencia artificial, aunque en ocasiones no nos percatamos, hace posible todo esto, sin embar- go es innegable que esto afectó a nuestros hábitos y la manera en la que manejamos distintas tareas pero ¿Qué podemos esperar de esta en un futuro no muy lejano? Palabras Clave: Robótica, dispositivo inteligente. ABSTRACT The advance of artificial intelligence gave way to a new era and the creation of new products capable of imitating the human behavior show us a future in which we could completely automate activities made by humans. The artificial intelligence in the last de- cade and the great advances it has made had a massive impact in the way we do our daily activities, be it in different applications like speech recognition, facial recognition, in the google search engine and is essen- tial in actual electronic devices or different programs for GPS navigation and videogames. The artificial in- telligence, even when at times we don’t notice, makes all of this possible, however it’s undeniable that it affected our habits and the way we handle different tasks but, What can we expect from a future not so far away? Keywords: Robotics, Smart devices. 1. INTRODUCCIÓN Una de las definiciones de la inteligencia artificial es que intenta imitar el funcionamiento de un cerebro humano siendo capaz de tomar decisiones correctas y aprender de sus experiencias, actuando según la situa- ción en la que se encuentre. Hoy en día es difícil encontrar a alguien que no posea un celular o televisor inteligente puesto que estos se convirtieron en algo esencial ya que son capaces de una cantidad asombrosa de tareas y su facilidad de uso hace posible que personas con poco conocimiento de tecnología pueda utilizarlos sin problemas. En el otro lado del mundo en países como Japón se pueden encontrar robots inteligentes que son capaces de ayudar en los hogares realizando tareas de limpieza e incluso casas inteligentes casi totalmente automati- zadas. A pesar de que estos últimos no son accesibles eco- nómicamente en la actualidad debido a su novedad es muy probable que al igual que los celulares se con- viertan en algo común en pocos años dando pie a una nueva era tecnológica pero ¿Qué tiene que ver la inte- ligencia artificial en todo esto? Citando lo dicho anteriormente un dispositivo inteli- gente es capaz de aprender los hábitos de su usuario o corregir y entender una orden aunque un usuario cometa un error al introducirla, y en todos los casos realizar la acción que resulte más beneficiosa en esa situación. Estas características están presentes en la mayoría de los dispositivos actuales pero no siempre fue así. Al contrario de la creencia popular la inteli- gencia artificial existe desde 1940 a manera de algo- ritmos y fue progresando desde entonces, actualmente existen proyectos ambiciosos en los que se intenta re- crear por completo una mente humana, pero esto da pie a la pregunta de ¿qué tipo de moralidad debería seguir una maquina? O ¿Esto implicaría algún riesgo para nosotros? y personas se oponen puesto que po- dría afectar la disponibilidad laboral en ciertos rubros. INTELIGENCIAARTIFICIAL, ¿CÓMO AFECTARÁ EN NUESTRAS VIDAS? Cruz Choque Ivan Limbert, Murguía Cazón Alvaro Marcelo, Veizaga Blanco Cristhian Freddy ivanhjig@gmail.com, Alvaromurgia123@gmail.com,veizagacristian@hotmail.com Universidad Mayor de San Andrés Carrera de informática Gramática Española
  • 92.
    75 La inteligencia artificialal igual que la robótica fre- cuentemente es motivo de discusión y el hecho de automatizar los trabajos más riesgosos sería un gran avance pero a su vez su uso extendido dejaría sin em- pleo muchas personas, este tipo de controversias ha dado mucho que hablar. Por otro lado cuando propuso el usar maquinas autómatas Por otro lado cuando propuso el usar maquinas au- tómatas para trabajar en minas los resultados fueron mejor de lo esperados puesto que eliminaría por com- pleto el riesgo de heridos en caso de un derrumbe y una maquina es mucho más precisa realizando traba- jos en poco tiempo y sin la necesidad de descansos. Lo mismo aplicaría en el campo de la medicina donde en cirujano necesita un pulso firme gran concentración para realizar una cirugía, pero una maquina es capaz de realizar trabajos a la perfección ya que no posee cualidades como el miedo, dudas ni distracciones. Quizá lleguemos a un punto en el cual las personas ya no tengan que realizar ninguna de estas tareas pero si algo es seguro es que cambiara nuestra forma de vivir. 2. DESARROLLO Así es como se verá tu mundo.Es el futuro lejano tu cuerpo se fue eres una computadora todo el tiempo tu cerebro es más poderoso,más que un billón de com- putadoras. Empleos, comida, idioma, agua, incluso pensamiento tradicional, todas las barreras de la hu- manidad todo eso termino tu eres inmortal. ¿Estas asombrado? Deberías, esto no es ciencia ficción los pensadores visionarios de hoy en día dicen que hay una fuerte posibilidad de que así es como se verá el mundo. En este artículo se mostrara como se verá el mundo en el año un millón esta es la descripción de nuestro futuro el camino al año un millón. El año un millón no hablamos de una fecha es una era figurativa una en la que nuestro mundo pase por un cambio muy dramático que es prácticamente irre- conocible y una de las principales innovaciones que moldearan ese futuro es la creación y el acenso de la inteligencia artificial si nos preguntamos que de- fine a los seres humanos la respuesta seria nuestras mentes nuestra conciencia nuestra inteligencia y si pudiésemos crear esa inteligencia crear algo lo más poderoso que hemos experimentado seria asombroso ¿o no? Quien no encontraríafascinante y convincente o verdaderamente aterrador y deberíamos asustarnos por ejemplo el celular en tu bolsillo, nopodemos vivir sin él y ya nos ha empezado a remplazarnos puede ac- ceder a nuestros recuerdos y hallar información en un pestañeo y se hace mucho mejor con el tiempo esa es la inteligencia artificial que cambiara nuestro dominio sobre el planeta. Una de las etapas explosivas de la evolución de in- teligencia artificial empezara de aquí a unos cientos de años cuando lo robots humanoides sean casi in- distinguibles de nosotros tomaran nuestros empleos cuidaran nuestras enfermedades luego reconocerán su propia conciencia rebasaran al ser humano iniciando un cambio de paradigma que apena podemos imaginar en nuestro mundo. Luego viene la singularidad cuando los androides con inteligencia artificial se vuelvan especies alfa y con la humanidad muy vulnerable algunos elegiremosfusio- narnos con la inteligencia artificial para ser competen- tes empezaremos con implantes cerebrales y la larga viviremos en un universo totalmente digital donde po- dremos hacer lo que sea que imaginamos y finalmente cuando dejemos que la inteligencia artificial influya en cada aspecto de nuestra vidas nuestra noción de lo que es un ser humano tomará otro significado intenso ¿verdad? Regresemos reloj cuando los androides con inteligen- cia artificial eran tan omnipresentes como extinguidor y aun no se volvían parte de nuestras familias Pero ¿Cómo llegaras del celular en tu mano a inte- ractuar con una persona artificial?Pues como todas las grandes innovaciones tecnológicas si puedes imagi- narlo puedes hacer que pase. Los humanos no tienen el poder de conocer el futuro pero en miles de años de historia humana nunca he- mos logradoparar de intentar imaginarlo pero, es muy difícil imaginarnos dentro de cien años al ritmo en que las cosas estarán cambiando. Ese deseo de poder ver el futuro haasediado a la hu- manidad desde sus inicios, los antiguos griegos chinos e indios todos han soñado con historias mitológica- sacerca de un futuro ser vivo creado por el hombre; las inteligencias artificiales son una parte amada de la ciencia ficción de hoy en día,la ciencia ficción es la ruta o el diseño de a dónde vamos es como un sueño conectivo de la humanidad de lo que podría ser el fu- turo y empujamos la realidad hacia esa dirección. En el último medio siglo se ha imaginado y creado inteligencia artificial que puede interactuar con noso-
  • 93.
    76 tros e inclusoderrotarnos en nuestro propio, juego los primeros programas de inteligencia artificial fueron creados en los cincuen- ta y tal vez la primera y más dramática demostración pública fue en 1996 cuando la computadora “Deep Blue”derrotó al gran maestro de ajedrez y en 2016 el “alfa go” derroto a unos de los mejores jugadores del mundo de go, considerado como uno de los juegos más complicados del planeta. Ahora claro todos tiene un celular una inteligencia artificial de bolsillo la inteligencia artificial claramen- te se hace cada vez más inteligente pero no pueden interactuar de una forma que podamos llamar humana aun. Figura 1. Érica el androide japonés Fuente: (Kiodo, 2015 Érica el androide o eso depende a quien le pregunten es uno de los humanoides más sofisticados jamás di- señados y nos da una idea de lo que una inteligencia artificial del año un millón podría parecer. Las compu- tadoras modernas son calculadoras son rápidas dando la ilusión de que piensan pero nunca aprenden, luego tenemos maquinas que aprenden redes neuronales ar- tificiales,literalmente se reconfiguran por si mismas después de aprender una tarea y así vemos máquinas que aprenden. Las cosas que son fáciles para los humanos son difí- ciles para los robots y viceversa por ejemplo un robot podría multiplicar un número de seis dígitos sin pro- blema pero podría no saber cuándo formar parte en una conversación. Lograr que una inteligencia artifi- cial tenga una plática simple es mucho más complejo y desafiante que lograr que haga cálculos avanzados Nos enfocamos en percibir lo humano como ¿qué cla- se de lenguaje corporal hace una persona?o¿cuál es su expresión e intentar percibir esas cosas? Hay mucho interés en robots que podrían cuidar a los ancianos o encargarse de la salud o cosas educativas. Mientras que los androides e inteligencia artificial evolucionen se volverían más indistinguibles de los humanos y la siguiente fase de automatización afec- tara dramáticamente a lo que significa ser humano, la batalla de la supervivencia dará inicio. Si tu Smar- tphone hace todo por ti navegación agenda e inclu- so encontrar una cita puedes ver que la inteligencia artificial se hace más inteligente con cada segundo que pasa y pronto se sentara en la silla de una oficina nos referimos a los empleos no podemos escapar de la dominación mundial de la inteligencia artificial, esta- mos en la cúspide de una revolución e automatización dentro de cien años tal vez las personas no trabajen al mismo grado que lo hacen hoy la labor humana será remplazada por maquinas, se podría liberar del trabajo agotador del pasado los robots harían ese trabajo ago- tador o peligroso. En 1800 los trabajadores textiles llegaron y vieron esas maquina nuevas y dijeron que los empleos des- aparecerían por que los empleos se expandieron por que otros tipos de industrias fueron inventados Muchos empleos se perderán por la inteligencia artifi- cial y los robots en los siguientes años. Pareciera que no existiera manera de frenar la auto- matizacióndigital y como resultado se produjeron cambio en la fuerza de trabajo pero cuando humano y maquinas trabajan mano a mano como lo hacen en EE-UU es posible llevar a una granja a un nuevo nivel llegando a cosechar cerca a los 10000 acres solo con aplicaciones en teléfonos utilizados para monitorear- los tractores, el combustible y que tan rápido va. La inteligencia artificial ya empezó su marchar para encargarse de la mano de obra empezando con un em- pleo en Microsoft como ayudante personal. Figura 2.Cortana. Fuente: (Engadget, 2017) Ya sabemos que la inteligencia artificial cambiara la
  • 94.
    77 forma en laque pasamos 40 horas la semana son y serán tiempos difíciles para la mano de obra mundial y eso no es todo la inteligencia artificial con el tiempo será tan sofisticada y tan inteligente que podría acer- carse mucho a tener todas las cualidades que tenemos los humanos, algún día habrá un sistema construido con nuestras propias manos que abrirá los ojos que vera y se asemejara a la clase de seres que somos y cuando eso pase será un momento trascendental en la historia humana. La inteligencia artificial empieza a tener lo que llama- mos nociones básicas del mundo para el que hay pala- bras si pensamos en el sabor del chocolate o el olor de los océanos es muy difícil describir eso exactamente con palabras las computadoras también las tienen pue- den tener sensores de modalidad que van másallá de nuestros cinco sentidos por lo tanto tendrán nociones del mundo para las que no tendríamos palabras. Por un momento creamos eso, las computadoras pue- den ser capaces de pensar por sí mismas igual que no- sotros pero hay una cualidad que tenemos y de la que a menudo se cree que los humanos tenemos el mono- polio. La forma en que nos ganamos a vida. La creati- vidad si las computadoras pueden crear ¿qué significa eso para la humanidad? Las cosa que pensamos son providencia de los creativos las maquina empezaran a hacerlas Al final a los humanos nada nos hace únicos cada capacidad que tenemos finalmente son resultados de la física la biología la química y si una persona en realidad quiere recrear esa capacidad en un sistema artificial sería posible Hagamos lo que hagamos solo podemos ser más po- derosos que la inteligencia artificial por algún tiempo, nos están ganando, en algún futuro lejano la inteligen- cia artificial nos rebasara a toda velocidad, los futuris- tas llaman en que las maquina inteligentes se vuelvan raza alfa del planeta y empiecen a funcionar sin nues- tro control como la singularidad. Singularidad es el punto en donde una conciencia de inteligencia artificial es creada y es más inteligente que las persona, la inteligencia artificial es cada gene- ración exitosa que ha aprendido todo de la generación anterior así que tiene un rápido crecimiento exponen- cial en capacidades y conocimiento que es casi abis- mal Cuando llegue la singularidad la inteligencia artificial no solo cultivara nuestra comida y hará la lavandería no solo harán nuestros impuestos y legislaran las leyes si no que pensaran soñaran y crearan, a menudo se dice que la inteligencia artificial será la última inven- ción que el ser humano lograra hacer porquea partir de ello estos tomaran el control. Es posibleque la inteligencia artificial llegue a evolu- cionar demasiado, tanto que tendrá una súper inteli- gencia que rebasará la nuestra, podría ser lo mejor que le haya pasado a la humanidad nos liberaran de labo- res domésticas nos ayudaran a procesar información como nuca antes, a lograr niveles de pensamientos y exploración científica que nunca seria posibles sin ellos. Por otra parte podrían retarnos por la cima en la cadena alimenticia ¿Qué pasaría si las maquinas deciden que están mejor sin nosotros? Imaginemos que una maquina supera a los humanos y no puede ser detenida se vuelve loca convirtiéndo- se en una amenaza para la humanidad vayamos a ese punto al finales del siglo tal vez tendremos robots con conciencia propia pondríamos un chip en su cerebro que los apague si tienen pensamientos asesinos por- que en ese punto podrían volverse independientes de nuestro deseos, si perdemos el control de los robots y se empiezan a hacer más robots,más inteligentes podríamos estar en problemas.La ciencia ficción a imaginado eseescenario de lo que pasaría cuando la maquinas crean saber lo que es mejor para nosotros. Hay toda una caja de probabilidades de problemas éticos que surgen esa maquia pensante tendría los mismos derechos que los seres humanos esa máquina pensante merece cierta clase de autonomía que noso- tros hayamos creado esa máquina, los humanos quizás no estaría tan emocionados de renunciar a su estatus de alfa en la tierra pero sucede que tal vez no tenga- mos opción a lidiar con seres más inteligentes y más fuertes que nosotros La pregunta sería ¿los robots similares a los humanos merecen derechos iguales? Llegamos a este territorio ético porque una maquina no es un humano es más como un perro, los perros en si las mascotas tienen derechos, si alguien matara a nuestra mascota todos verían que eso no está bien porque una mascota es un ser viviente y tiene algún tipo de conciencia por lo que se cree que las maquina también tendrían derechos. Es posible que la inteligencia artificial pueda tomar el poder que quiere. Ciertamente tendrá la habilidad para
  • 95.
    78 eso. Significa queel futuro podría ser un lugar donde los robots ya no trabajen para nosotros si no que ten- drán el mismo estatus que los humanos. Que la inteligencia artificial sea más inteligente que toda mente junta es una posibilidad muy real es la sin- gularidad y es nuestro futuro, es posible que la inteli- gencia artificial decida que nos quieren fuera, claro es aterrador. Pero hay una posibilidad aúnmásoptimista, esasom- broso y emocionante imaginar lo que la inteligencia artificial podría hacer, es decir nos esforzamos mucho para resolver grandes problemas sobre la tierra, sobre el universo, imaginen que transfiriéramos esos enig- ma a una ámbito pensante más poderoso que pudiera resolver esos problemas o revelar nuevas oportunida- des que nunca pesamos e ideas creativas que entonces podríamos perseguir, en esta visión del futuro la inte- ligencia artificial no solo vivía a nuestro lado como compañeros los humanos también detendrán el con- trol sobre la maquinas Cuando la inteligencia artificial se vuelva mássofis- ticada podremos empezar a elaborar a un nivel más profundo e interesante cuando llegue una nueva crea- tividad y la colaboración sea posible eso será podero- so la tecnología no siempre será una amenaza o quizá negativo, se puede agregar y reforzar la creatividad también el arte se verá afectado a veces en formas her- mosas e impredecibles nos liberara para hacer lo que hacemos mejor, que es soñar y crear e inventar algo más grande y mejor que la inteligencia artificial. Luego está la posibilidad de tomar una página del li- bro de la inteligencia artificial y nos volveremos en parte una computadora,esposible que nos empecemos a volvernos híbridos esa es la encrucijada de ahí parti- remos no solo será extensión del modelo humano si no la invención de una nueva definición de ser humano, estamosa punto de viajar de solo humanos a humanos y solo activados por la computación una especie de salto a la cima de este crecimiento exponencial, no hay problema con fusionarse con la tecnología de las maquinas no hay analizarlo nada de que preocupase no se creía de que algo salga mal al fusionarnos con nuestra tecnología, si un tercio de millón de pacientes tuviese un implante neuronal puesto en su sistema ner- vioso ayudaría a la gente con demencia o Alzheimer y otras enfermedades con el tiempo el uso se ampliara a funciones complejas como como la inteligencia o la memoria aumentada en tiempo real, si nos fusionamos con la inteligencia artificial ¿qué forma tomaríamos? Un nuevo modelo para la humanidad ya no puramente biológico similar a una especie deciborg, ya no ten- dríamos que confiar en la suerte de la genética, po- dríamos decidir qué clase de humanos podríamos ser. Figura 3.Esfera de Dyson. Fuente: (Anónimo, 2017) Aun somos humanos o somos inteligencia artificial pura podría ser una distinción confusa y tal vez es me- jor dejarlo ese punto así Lo que no es confuso es que la inteligencia artificial alimentara todas las tecnologías futuras debemos comprender esto muchos científicos creen que en un futuro trabajaremos con la inteligencia artificial para evolucionar nuestros cuerpos biológicos existiremos solo como una señal digital en una estructura llamada la esfera de Dyson una súper computadora alimentada por el sol en donde podremos estar en cualquier parte y en ninguna al mismo tiempo, pero antes de eso los científicos deberá resolver como hacer que los huma- nos vivan para siempre ¿Qué harías si nunca tuvieses que morir? 3. CONCLUSIÓN La inteligencia artificial consiste en la asimilación de los procesos inductivos y deductivos del cerebro hu- mano. Es una rama de la ciencia de computación que com- prende el estudio y creación de sistemas computariza- dos que manifiestan cierta forma de inteligencia. La IA es un campo de estudio que busca explicar y emular el comportamiento inteligente en términos de procesos computacionales. El desarrollo de la IA dará paso a grandes avances al punto de cambiar la forma en que vivimos. 4. REFERENCIAS BIBLIOGRÁFICAS Torra, V. (2017).Estudios.Recuperado de:https://bi- blioteca.itam.mx/estudios/estudio/estudio10/ sec_16.html.
  • 96.
    79 Anónimo (2017). Elandroide que va a condu- cir-un-programa de televisión.Recuperado de:https://www.pagina12.com.ar/20374-eri- ca- Anónimo. (2015). Microsoft refuerza estrategia in- teligencia artificial.Recuperado de: https:// news.microsoft.com/es.es/2017/07/13/mi- crosoft-refuerza-estrategia-inteligencia-arti- ficial/ Anónimo (2017). El mundo. Recuperado de: http://www.elmundo.es/opinion/2017/10/31/ 59f7706bca47413c2d8b45cf.html Anónimo. (2017). Inteligencia artificial Dayapolis. Recuperado.de:http://inteligenciartificialda- yapolis.blogspot.com/p/caracteristicas.ht- ml?m=1. Anónimo. (2017). Proponen un nuevo tipo de esfera de Dyson prácticamente.Recuperado.de:ht- tp://es.gizmodo.com/proponen-un-nuevo-ti- po-de-esfera-de-dyson-practicamente- Anónimo. (2017). Definición. Recuperado de: https://www.definicionabc.com/tecnologia/ inteligencia-artificial.php. Anónimo. (2017). Motor de inteligencia artificial. Recuperado.de:https://www.azulweb.net/ microsoft-libera-bajo.licencia/mit-su-mo- tor-de-inteligencia-actificial/ Anónimo. (2017). “Historia de la inteligencia ar- tificial”.Recuperado de:https://es.wikipedia. org/wiki/Historia_de_la_inteligencia_artifi- cial. Anónimo (2017). “La inteligencia artificial ha- cia donde nos lleva”. Recuperado de: https://www.azulweb.net/microsoft-libe- ra-bajo-wlicencia/mit-su-motor-de-inteli- gencia-actificial/ Anónimo (2017).”La intuición y los qualia”. Recu- perado.de:https://www.google.com/amp/s/ blogs.enconfidencial.com/amp/tecnologia/ relatos-relativos. Anónimo. (2017). Ventajas y riesgos de la inteligen- cia artificial. Recuperado de: https://www.muyinteresante.es/tecnologia/ articulo/ventajas y riesgos de la inteligencia artificial.
  • 97.
    80 INTELIGENCIAARTIFICIAL EN LOSVIDEOJUEGOS Aguilar Catari Jorge Pablo, Carrion Choque Nelson Pabloaguilar12a95@gmail.com, ncarrion267@gmail.com, Universidad Mayor de San Andrés Carrera de Informática Gramática Española RESUMEN La inteligencia artificial o IA es uno de los puntos más importantes a la hora de estudiar y criticar un video- juego y mientras que hay unos grandes avances en los últimos años parece que se ha llegado a un tope y la inteligencia de nuestros aliados y enemigos virtua- les se ha estancado. Ya que tenemos las mismas inteli- gencias artificial casi sin modificaciones. ¿Qué depara el futuro? La inteligencia artificial es un campo de la informática cuyos avances son cada día más rápidos y profundos. ¿Cómo se podría aplicar esta apasionante tecnología al desarrollo de videojuegos? La respuesta a este interrogante aún nos queda bastante lejos, pero, usando un poco la imaginación, podremos hacernos una idea de cómo será el futuro. Una idea quizá irreal y fantasiosa, pero, definitivamente, muy interesante y sugerente. PALABRAS CLAVE: Inteligencia artificial, Video- juegos. ABSTRACT Artificial intelligence or AI is one of the most import- ant points when it comes to studying and criticizing a video game and while there are great advances in recent years it seems that it has reached a point and the intelligence of our virtual allies and enemies has been stagnant Since we have the same artificial intelligence almost without modifications. What does the future hold? Artificial intelligence is a field of information technology whose progress is getting faster and deep- er every day. How could this exciting technology be applied to the development of video games? The an- swer to this question is still far away but, using a little imagination, we can get an idea of what the future will look like.An idea perhaps unreal and fantasy but, defi- nitely, very interesting and suggestive. KEY WORDS: Artificial intelligence, Video games, 1. INTRODUCCION El concepto de inteligencia artificial o IA en los vi deojuegos es algo más básico del que hemos hablado anteriormente, y se refiere en este caso a las técnicas utilizadas por los programadores para producir una ilusión de inteligencia en el comportamiento de los personajes no jugables, así como de otros elementos del entorno. Estas Inteligencias pueden evaluar una situación dada en el momento y actuar siguiendo ciertas directrices y cier- tos objetivos claramente definidos lo cual involucra la toma de decisiones. Sin embargo, con el avance tec- nológico, la evolución de la inteligencia artificial el campo de los videojuegos ha estado en una situación crítica si bien se podría decir que estaba estancada. En la actualidad si bien existe una mayor variedad de es- tados en los que los PNJ (personaje no Jugador o per- sonaje controlado por el director) pueden encontrarse y que sus acciones se han vuelto algo más naturales y precisas, pero sigue sin verse un salto cualitativo claro. Actualmente y en la mayoría de juegos, puede leerse fácilmente el comportamiento de los personajes manejados por la IA, que pronto se vuelve predecible y sin una profundidad al contexto de la realidad. La complejidad y la imprevisibilidad que se atribuye a la inteligencia quedan relegadas en el campo de los videojuegos para poco más que la experiencia com- petitiva o cooperativa contra o junto a otros jugadores humanos, respectivamente. 2. DESARROLLO La inteligencia artificial en los videojuegos es uno de los primeros juegos en sorprender por la I.A. de sus jugadores fue  Half-Life un juego de tipo (aventu- ra, acción, shotter, primera persona) donde nuestros enemigos eran tan astutos que podían flanquearnos y combinar granadas con rifles para inmovilizarnos en cuestión de segundos. Luego de Half-Life juegos como Thief, lanzado al mercado el 28 de febrero del 2014 un juego de tipo aventura donde la experiencia pasaba más por el sigilo
  • 98.
    81 y la actituddefensiva, mostraron que una IA además de saber atacar podía reconocer alteraciones en el es- cenario y alertarse por ruidos, tanto de nuestro perso- naje como de cualquier otro elemento. Otros ejemplos del  avance de la IA se dieron con shooters como Unreal tornament y Halo (como se ve en la figura 1). En este período de tiempo los juegos shotter y de acción donde los enemigos activos formaban parte principal de la aventura crecieron y crecieron sin cesar. Figura 1. Estado de Flow. Fuente: (Videojuegos Accesibles,2014) 2.1INTELIGENCIA ARTIFICAL EN OTROS GENEROS DE VIDEO JUEGOS Antes en la época de la salida de las consolas NES, Atari, Genesis, no contaban con estos si bien los men- ciona “Todo el ser está envuelto en esta actividad, y la persona utiliza sus destrezas y habilidades llevándolas hasta el extremo.” Mihaly Csikszentmihalyi(1997). El estado de flow es equilibrio entre el reto que presen- ta juego y las habilidades del jugador para evitar el aburrimiento o la frustración era así por decir como una inteligencia artificial cuya misión era dificultar de forma automática la situación del jugador en base a sus habilidades en el juego una descripción grafi- ca de este sería la de la figura 1. Hoy en día con la llegada de la inteligencia artificial, algunos géneros del videojuego podrían verse trastocados para siem- pre todo esto, aplicado al desarrollo de videojuegos, podría significar la nueva revolución del medio como en su día supuso el paso de las dos dimensiones al 3D, aunque el salto que supondría la inteligencia artificial tendría consecuencias más profundas todavía. Con esta tecnología podrían generarse mundos orgánicos y creíbles, y algunos géneros del videojuego po- drían verse trastocados para siempre. La estrategia, por ejemplo, pasaría a enfrentar al jugador a verda- deros imperios inteligentes que evolucionarían con total realismo con el paso de los años. Los mun- dos abiertos podrían estar poblados por numerosos personajes reales, cada uno con sus características diferenciadoras, siendo parte, a nivel macro, de una sociedad con un comportamiento creíble en un entorno mutable. En juegos narrativos, la capacidad de comunicación con los personajes a través de una IA permitiría que no hubiera dos partidas iguales, ya que mostraría tramas adaptativas a las acciones del juga- dor es” el sueño de David Cage” David Cage (2016). “son innumerables las aplicaciones que tendría la in- teligencia artificial en los videojuegos. Pero, llegados a este punto, ¿no dejarían de ser necesarios los desa- rrolladores si una inteligencia artificial equiparable o superior a la humana estuviese a su servicio? Quizá hasta dejaríamos de jugar a juegos competitivos o cooperativos junto a humanos, ya que las IAs serían más inteligentes y eficientes. Si la realidad virtual prospera como tecnología y converge con la inteligencia artificial en el futuro, correremos el riesgo de vivir atrapados en una suerte de Matrix mientras las máquinas dominan el mundo real. O, lo que sería peor, quizá lleguemos a acceder voluntariamente a ponernos a los mandos de juegos que se introduzcan en nuestra mente, para acabar trastocando nuestra psi- que para siempre” David Cage (2015). A decir verdad, la inteligencia artificial da bastante miedito. Pero, aun así, valdría la pena el riesgo solo por ser capaces de jugar a un futuro Portal en el que no sólo pudiésemos hablar de tú a tú con GLADOS, sino que, además, esta llegase a desarrollar un odio real por los jugadores hasta desear su muerte y hacer todo lo posible para que esta llegase. Eso, sin duda, sería algo digno de ver. 2.2 EL AVANCE DE LA INTELIGENCIA ARTI- FICIAL Desde aquel momento hasta ahora muchos juegos han dado una buena muestra de lo que una inteligen- cia artificial puede lograr, sin embargo, aún estamos mucho más cerca de la palabra «artificial» que de «inteligencia». Las nuevas tecnologías y los dispositivos de mayor capacidad han permitido a los desarrolladores crear motores más poderosos para los personajes no juga- dores y con esto Inteligencia Artificial mejorada. Sin embargo, el avance se ha dado más en forma horizon-
  • 99.
    82 tal que vertical,no es tanto que las inteligencias hayan mejorado, sino que ahora se puede crear más cantidad de personajes simultáneamente y mayor diversidad de acciones para los mismos. Un caso de esto es  Far Cry 3 donde los animales cuentan con una inteligencia artificial muy avanzada y donde no solo estos se mueven de un lugar a otro, sino que también cazan, se esconden, huyen, y cambian de actitud dependiendo su entorno. Si continuamos hablando de Far Cry 3 debemos decir que este juego cuenta con una de las Inteligencias Artificiales  más trabajadas hasta el momento y la cantidad de actitudes que puede adoptar un enemigo es bastante amplia y cambiante. Igualmente, no se ale- ja mucho de lo que veíamos 10 años atrás con juegos como Thief. 2.3 EL FUTURO DE LA INTELIGENCIA ARTI- FICIAL Las nuevas tecnologías permiten mayor cantidad de informaciónyvelocidadparaprocesarestainteligencia artificial, pero se necesita que los programadores trabajen más en desarrollar estas inteligencias para que se mejore. Por otra parte, las IA utilizadas en juegos de estrategia como Crusader Kingpresentan actitudes diferentes a las de un FPS y algunos desarrolladores afirman que ya se ha llegado al límite de su capacidad. Figura 2. video juego farcry 3. Fuente:(http://diariodetellus.blogspot.com, 2016) 2.4 INTELIGENCIA ARTIFICIAL EN VIDEO JUEGOS DE ESTRATEGIA El trabajo desarrollado en este proyecto se basa en el diseño e implementación de una inteligencia artificial diseñada para juegos de género Multiplayer Online Battle Arena (MOBA) es un género de videojuegos que se desarrolla en una arena virtual en conexión con otros jugadores para cumplir un objetivo claro y es- pecifico, juegos de estrategia en tiempo real, que se encuentran en auge en la actualidad. Figura 4. Deep Blue venció a Kasparov. Fuente(eldiario.es, 2014) Estudio y análisis de la toma de decisiones de una IA desarrollada para este género, basado en un análisis estadístico del entorno, utilizando la información ob- tenida mediante sensores y rangos, y utilizándola de forma no lineal. Análisis de cómo podrá́ variar la inteligencia artificial en distintas partidas, aun dándose las mismas situacio- nes, con la posibilidad de modificar el estado interno en tiempo real para controlar el comportamiento, así́ como la toma de decisiones de nuestra inteligencia artificial. “Desarrollo de una interfaz donde será́ posible visualizar los cambios realizados, así como ajus- tarlo a la función del usuario que lo maneja. En último lugar, implementación de la IA, junto a su estudio realizado anteriormente, dentro de un mini juego. El mini juego fue realizado para el debug de la inteligencia artificial y observar su funcionamiento, con un panel de control para poder visualizar y anali- zar el estado de la IA además de realizar modificacio- nes para ajustar el funcionamiento de la misma a los fines requeridos” Kaplan J. (2015) 2.5 EL FUTURO NOS DEPARA LO QUE LA INDUSTRIA DECIDA, PERO LOS JUEGOS SEGUROS, MÁS INTELIGENTES Es muy probable que la inteligencia artificial en los videojuegos nunca llegue a alcanzar las cotas que
  • 100.
    83 se pretenden enla robótica, por ejemplo, ya que a priori, no parece que exista una necesidad de que los personajes creados tengan una vida y pensamientos completamente propios (incluso cuando ya no juga- mos al juego). Aun así, sería interesante que esta tecnología evo- lucionase lo suficiente como para que fuera posible crear toda una red de acciones entre personajes den- tro del juego. Es decir, que nuestras decisiones, lo que decimos, lo que hacemos, tengan un peso mayor y generen respuestas más reales y creíbles en el pro- pio entorno del título un ejemplo de ello es el juego farCry como se muestra en la figura 2. Entonces, se antoja raro que los desarrolladores va- yan a invertir una ingente cantidad de recursos eco- nómicos en hacer que los personajes puedan pensar por sí mismos de forma completamente libre. Es una realidad plausible, pero poco probable. “Una de las cosas que más preocupa a la industria es crear entornos reactivos, y lo más interesante es que esto se empieza a aplicar a otros sectores fuera de los videojuegos, como simuladores sociales para forma- ción, reconstrucciones virtuales y simuladores béli- cos para los ejércitos. Básicamente, estos entornos reactivos ya existen en muchos juegos, pero se basan en una relación «causa-efecto»; es decir, yo provoco algo y en consecuencia pasa algo (la gente huye, el escenario se derrumba o cambia de forma…). Juegos como Los Sims son la primera piedra de los nuevos entornos reactivos y evolutivos, que evolu- cionan solos, tanto porque nosotros provoquemos algo como porque, sencillamente, un personaje deci- da evolucionar él solo. El acierto de este «simulador social» es cómo está creado y diseñado su sistema de inteligencia artificial, ya que se reproducen comportamientos y acciones po- sibles (previamente definidas por el diseñador) y se las asocia a elementos concretos del juego. Esto crea situaciones divertidas al poder interactuar con un ob- jeto de varias maneras, por ejemplo, en la forma de comportarse un sim ante los elementos que creamos dentro de la casa, donde las posibilidades son muy va- riadas.” Nafia, R (2014). 2.6 INTELIGENCIA ARTIFICIAL GANA A JU- GADORES PROFESIONALES DE DOTA 2 “La Inteligencia Artificial sigue asombrándonos día a día por su rápido crecimiento y su capacidad para su- perar a los humanos en tareas cada vez más humanas esto se debe a que en la actualidad mucho quipos y dispositivos funcionan emplean lo que se denomina redes neuronales o aprendizaje automático. OpenAI, Inteligencia Artificial  bondadosa creada por  Elon Musk  para prevenir  los peligros de la Inteligencia Artificial (básicamente, que se vuelva más inteligente que nosotros y decida que somos un estorbo), ha vencido en el juego DotA 2 a los mejores jugadores profesionales, Danylo “Dendi” Ishutin, Su- maiL y Arteezy. Desde que en 1996 el superordenador  Deep Blue derrotó al campeón del mundo de ajedrez, Gary Kasparov, como se muestra en la figura 3 la maquina posea una inteligencia artificial tal que cada moviento realizado por el oponente era estudiado y analizado con el fin por poder attrapar o vencer a la víctima y así muchas otras I.As han vencido a los humanos en diferentes disciplinas. Pero la victoria de OpenAI en DotA 2 es mucho más importante y llamativa, por varias razones. OpenAI  es  un software avanzado de Inteligencia artificial patrocinado por Elon Musk, con el objetivo de desarrollar una IA que no pueda rebelarse contra la Humanidad, si se vuelve demasiado lista. Durante dos semanas ha sido entrenada para jugar a DotA2, uno de los juegos multijugador más populares de los eSports. Cada día lo juegan más de 10 millones de personas. Un MOBA en el que varios equipos se enfrentan entre sí manejando héroes con diferentes poderes. Cuando se celebró The International (torneo de dota 2 a nivel mundial), el torneo de DotA 2 más famoso del mundo, con un premio de 24 millones de dólares para el equipo ganador. Durante el torneo,  OpenAIse ha enfrentado a algunos de los mejores jugadores del mundo de DotA 2, Hace unos días venció en partidas 1v1 (uno contra uno) a los jugadores Arteezyy  SumaiL  (el mejor jugador del mundo en 1v1), y recientemente ha ganado 2 a 0 al ucraniano Danylo «Dendi» Ishutin, campeón del torneo The International. La victoria de OpenAI en DotA2 supera dos hitos muy importantes. Por un lado, DotA 2 es un juego mucho más complicado que el ajedrez o el GO (donde triunfó la IA de Google), que tienen unas reglas fijas sencillas de aplicar, y se juegan por turnos. DotA 2 tiene más
  • 101.
    84 reglas mucho máscomplejas, se juega en tiempo real, y hay que improvisar y ser creativo. Además, OpenAI no aprendió a jugar a DotA 2 co- piando estrategias de otros jugadores o almacenando jugadas, sino que lo hizo jugando consigo misma las dos semanas y aprendiendo de sus aciertos y erro- res. En sólo dos semanas, ya juega mejor que los mejores jugadores profesionales que necesitan años de práctica. “Se parecía un poco a un humano, pero otro poco a otra cosa”, ha comentado Danylo “Dendi” Ishutin tras su doble derrota. Esta  victoria de OpenIA en DotA 2  reafirma sus argumentos de que en unos años la Inteligencia Artificial  será más lista que los humanos,  y si no se establecen límites podría poner en peligro a la Humanidad. Hace unas semanas Elon Musk tuvo un duro enfrentamiento con mark zukerberg. Ahora OpenIA se prepara para jugar partidas 5v5 en DotA 2. ¿Qué ocurrirá si alguien pide que dejen par- ticipar a las IAs en los torneos de eSports?” Springer A. (2017). 3. CONCLUSION -Las inteligencias artificiales en los videojuegos se ha- cen más habilidad a tal punto que los mismos pueden superar a jugadores profesionales y que llevan años jugando el mismo juego a la vez esto representa un reto en muchos jugadores basándose en el pensamien- to “Como puedo vencido por una maquina”. -La inteligencia artificial en video juegos durante un tiempo se quedó parado estancado debido a que no tenemos los materiales necesarios para hacerlos más potentes, pero con el paso de tiempo va mejorando. -El proyecto Desarrollo de un videojuego basado en inteligencia artificial tiene como objetivo el desarrollo de un videojuego de estrategia donde el jugador de- berá planificar una defensa capaz de resistir el ataque enemigo. Posteriormente, cuando aparezca el enemi- go, los soldados actuarán de acuerdo a sus mecanis- mos de toma de decisiones (aunque algunos soldados pueden ser controlados por el jugador), al igual que los enemigos. - Este proyecto ha sido una experiencia muy positiva que me ha permitido aprender mucho sobre el desa- rrollo de un videojuego. Ha sido todo un reto y creo haber aprendido mucho de los errores cometidos. También debo admitir que me ha resultado divertido y estimulante trabajar en este tipo de proyecto. REFERENCIA BIBLIOGRAFICA Norvig P. y Stuart J. (1999) Inteligencia Artificial: Un Enfoque Moderno Palma M. y Morales R. (2008) Inteligencia artificial. Técnicas, métodos y aplicaciones Kaplan J. (2015) Abstenerse humanos: guía para la riqueza y el trabajo en la era de la inteligencia artificial (Estados Unidos) Asport M. (2017) The Economics Times Nafia, R (2014) Thif.Vandal. Recuperado de http://www.van- dal.net/juegos/pc/thief/10652 Sebán.A, (22 de mayo de 2017). El vertiginoso avance de la inteligencia ar- tificial en los últimos años [mensaje de un blog]. Recurado de https://blogthinkbig.com/ el-vertiginoso-avance-de-la-inteligencia-ar- tificial-en-los-ultimos-anos HypnosMorfeo(Productor). (2015). La sorprendente historia de la computadora que venció al campeón de ajedrez Mundial [MP4]. México. Marilin,G. (2014). El fallo de Deep blue que pudo haber vencido a Kasparov. Diarioturing. Recu- perado de http://www.eldiario.es/turing/ ciencia/fallo-Deep-Blue-vencido-Kaspa- rov_0_242876565.html David C. (2015) Reseña de El videojuego a Través de David cage David c. (2016) El sueño de David Cage Springer A. (2017) https://www.hobbyconsolas.com/noticias/ inteligencia-artificial-open-ai-vence-campe- on-dota-2-160122 Csikszentmihalyi M. (1997). Fading Flow.Kairos.España Miraena J. (2014). Ajuste dinámico dela dificultad
  • 102.
    85 INTELIGENCIAARTIFICIAL EN LOSVIDEOJUEGOS DE ESTRATEGIA Elías Quispe Álvaro Edson, Loza López Luis Beltrán, Medrano Kantuta Christian Daniel elias.e3@gmail.com, luislozaleo@gmail.com, chisdtian.dani_23@gmail.com Universidad Mayor de San Andrés Carrera de Informática Gramática Española RESUMEN El papel de la Inteligencia Artificial en los videojue- gos nos hace referencia a las técnicas utilizadas en distintas computadoras y videojuegos para producir la ilusión de inteligencia en el comportamiento de los personajes que no jugadores (PNJ). En los últimos años los videojuegos evolucionaron notablemente y con ello las compañías de videojuegos que poco apostaron por incluir la inteligencia artificial en sus juegos. Por ello en este artículo presentaremos la historia de la inteligencia artificial en los videojuegos de estra- tegia y finalmente mostraremos Videojuegos que han realizado un trabajo notable en este aspecto, así como el porvenir de la inteligencia artificial en este sector. Palabras clave: inteligencia artificial en los juegos de estrategia. ABSTRACT The role of Artificial Intelligence in videogames refers to the techniques used in computers and videogames to produce the illusion of intelligence in the behavior of non-player characters (PNJ). In recent years videogames have evolved significantly and with it the videogame companies that little bet on including artificial intelligence in their games. Therefore, in this article we will present the history of artificial intelligence in strategy video games and finally we will show Videogames that have done a re- markable job in this aspect, as well as the future of artificial intelligence in this sector. Key words: artificial intelligence in strategy games. 1. INTRODUCCION Un videojuego o en otro caso un  juego de vídeo es un software creado para el entretenimiento general y está basado en la interacción entre una o varias perso- nas, mediante un aparato electrónico que ejecuta dicho videojuego, este dispositivo electrónico puede ser una computadora, una videoconsola, una máquina arcade, con un dispositivo handheld (por ejemplo un teléfono móvil) los cuales son conocidos como “plataformas”. Aunque, usualmente el término “video” en la palabra “videojuego” se refiere en sí a un visualizador de grá- ficos rasterizados que hoy en día se utiliza para hacer uso de cualquier tipo de visualizador. También entendemos por videojuegos a todo tipo de juego tanto digital interactivo, con independencia de su soporte maximizado. Hay videojuegos muy sencillos y otros más comple- jos, algunos son capaces de narrar historias y aconte- cimientos usando audio y video. Ahora el término de Inteligencia Artificial se refiere a la capacidad de poder consentir las funciones inteli- gentes del cerebro humano y todo lo que es altamente conocido, pero quizás su concepto aun no es compren- dido, así como tampoco las implicaciones que puede tener en la informática y en otras diferentes ramas. La Inteligencia Artificial puede tener muchas revolucio- nes en estos campos. El término Inteligencia artificial, va enfatizado a un programa de computación que es diseñado para reali- zar determinadas operaciones que se consideran pro- pias de la inteligencia humana , como el autoapren- dizaje, y la facultad de razonamiento de un agente que no está vivo ,como por ejemplo un robot; y la inteligencia artificial puede ser una revolución en los distintos campos informáticos. 2. DESARROLLO La mayoría de personas al escuchar sobre videojue- gos e Inteligencia Artificial piensan que el juego ideal es aquel que no se diferencia de personajes que son máquinas, y personajes que son jugadores reales, pero estos individuos no se ponen a pensar que Inteligencia Artificial engloba un sin fin de estudios en el área de
  • 103.
    86 inteligencia artificial. Para comprendermejor se mencionará pequeños con- ceptos que abarcan los juegos en la Inteligencia Arti- ficial. 2.1 Sistemas Expertos Se refiere a programas inteligentes de computación que utilizan conocimiento y procesos de inferencia, los cuales resuelven problemas sumamente difíciles para el ser humano. Figura 2.1.1 en este ejemplo da un concepto general de todo los que es un sistema experto en cuanto ala inteligencia artificial Fuente (A. Perez y Jaquin 2015) Los Sistemas Expertos se basan en las Redes Neu- ronales. Y sus partes son: el Motor de Inferencia, La Base del Conocimiento, el Subsistema de Explicación y la Interfaz. • La Base del Conocimiento: es donde se re- úne todos los datos que el Sistema Experto tiene para tomar decisiones. • El Motor de Inferencias: intervienen todos los procesos que manipulan la Base del Conocimien- to, y también para seleccionar la información solici- tada por el usuario. (Por Ejemplo, conjunción, encadenamiento va atrás hacia delante.). • El Subsistema de Explicación: es el que analiza la estructura del razonamiento y da una buena explicación al usuario. • La Interfaz: es el puente de comunicación importante entre el sistema y el usuario. 2.2 Agentes Un agente es el que piensa o razona (hacer). Y se di- ferencian por tener controles independientes, ya que ellos perciben su entorno, además que son los que se adaptan a los cambios y alcanzan objetivos distintos. 2.2.1 Agente Racional El objetivo de un agente racional es obtener mejores resultados, poseen Actos Reflejos, se basan en Infe- rencias, ya que son mucho más eficientes que una lar- ga inferencia en algunos casos. Estudiar la IA en base a Agentes Racionales, es beneficioso ya que permite diseñar al agente en base a inferencias. Sin embargo, por cuestiones de espacio es imposible diseñar una personalidad perfecta. En la práctica se usa una racio- nalidad limitada, por razones de tiempo y espacio. 2.2.2 Agente Inteligente Figura 2.2.1 Un ejemplo en general de lo que es un agente inteligente. Fuente (wikispace , 2015) Es aquel que percibe un medio ambiente, median- te sensores, pueden ser de un agente robot: Teclado, red, detectores de luz, etc. Y los activadores pueden ser una pantalla o la red. Se dice que una agente tiene percepción si puede recibir múltiples entradas en cual- quier instante. En general este agente tomará decisiones de acuerdo a todas las entradas que recibió. 2.2.3 Agentes de Estímulo-Respuesta Estos agentes reaccionan a los estímulos que reciben del mundo exterior, y esta es la forma más sencilla de Inteligencia Artificial.
  • 104.
    87 2.3 Búsqueda Heurística Sellama Búsqueda Heurística porque usa conoci- mientos específicos sobre un problema en general. con la búsqueda podemos encontrar soluciones más eficientes en el menor tiempo posible. Aquí encontramos algunas variantes: 2.3.1 Algoritmo *A Consiste en la forma de búsqueda en el Primero y el el Mejor más conocido, sirve para la interaccion (Búsqueda de Caminos) y es muy usada en juegos. Un ejemplo es el famoso juego Pacman: Los fantasmas que persiguen a Pacman buscan el camino más corto, en lugar de aparecer en forma aleatoria en el Mapa del Juego. Otro ejemplo es el Age of Empires, un juego de con- quista de civilizaciones, los enemigos salvan obstácu- los para llegar a la ciudad del adversario. El Algoritmo *A, no desarrolla un camino por inte- racción, sino que desarrolla varios caminos y elige los más prometedores. 2.3.2 Algoritmo MINIMAX Se posee DOS jugadores: MAX y MIN, primero ju- gará MAX y así seguirá el flujo hasta acabar el juego. Existe un árbol de juegos que los programas utilizan para calcular los Movimientos Legales permitidos. El valor MINIMAX será un valor que determine el esta- do final del juego (En le ajedrez: -1, 0, 1; que son triunfo, derrota o em- pate). En algunos juegos este valor MINIMAX puede ser muy alto (Como en el Backgamon, se estima algo de -192 a 192 valores). Incluso el Tictac toe (3 en Raya), es complejo para armar el árbol de juegos. A los niveles del árbol se les llama capas las cuales detallaremos más delante de este articulo como una aplicación. Para determinar la estrategia óptima a seguir se usan valores MINIMAX. MAX adoptará el valor máximo y MIN el mínimo. La decisión MINIMAX supone que los 2 jugadores son óptimos, si uno es un novato será fácilmente derrotado por esta decisión. Figura 2.3.2.1 Un cálculo detallado del árbol de jue- gos perdería tiempo, pero aquí se ve las estrategias y los pasos que se da en un algoritmo Minimax. Fuente (P. y Jaquin enero del 2015) El Algoritmo MINIMAX es la forma computacional en la que se calcula el valor MINIMAX de cada estado de sucesos. Lo interesante del Algoritmo MINIMAX es que no calcula todo el árbol de juegos, sino que calcula solo un horizonte de k niveles. Un cálculo detallado del árbol de juegos perdería tiempo, ya que como ejemplo, en el ajedrez se calcu- lan algo de 35100 movimientos totales. El objetivo de MAX aquí es ganar a MIN tomando alguna decisión sobre la mejor jugada que se puede hacer. El Algoritmo MINIMAX no se usa como tal en los juegos de estrategia que no están identificados industrialmente. Industria de Juegos, ya que es en algunas ocasiones lento, en vez de este se usan versiones optimizadas que veremos a continuación. En este caso se va mostrando las muchas versiones de los juegos que a medida que va transcurriendo el tiempo va saliendo. 2.3.3 Poda α-β El resultado del Algoritmo MINIMAX es el valor MINIMAX que nos permite tomar la decisión más acertada para el horizonte de búsqueda fijado, no obs- tante hay ocasiones en el que la ramificación del árbol de juegos es muy alta. (En ajedrez se calcula algo de 35100 o 10154 movimientos). Sería un derroche tratar de probarlos todos, esta es la razón por la cual el Algoritmo MINIMAX no se usa como tal en la Industria de Juegos. Afortunadamen- te se puede simplificar el proceso, evitando algunos nodos.
  • 105.
    88 Esto se basaen que al momento de explorar se deter- mina que el nodo no va a cambiar el valor MINIMAX, es obviado, ya que no nos va a servir de mucho. Es- tos nodos quedan “Podados”, ahorrando así tiempo de proceso en los programas. El Algoritmo que implementa la poda α-β se llama Al- goritmo αβ, y se basa en ajustar los límites llamados: límite -∞ y límite +∞; para el nodo raíz estos son de -∞ y ∞+; ya que el valor MINIMAX estará entre esos 2 límites. Estos valores se propagan hacia abajo y se actualizan. Los nodos MAX actualizan su valor si v>α y los no- dos MIN actualizan su valor si v<β. La situación de Poda se detecta si un nodo satisface a α≥β y ello im- plica obviar la exploración del sub-árbol siguiente y devolver β como si se tratara de un nodo MIN. Si no existiera Poda (Es decir no se satisface la expre- sión α≥β), el algoritmo se comportará como un Algo- ritmo MINIMAX normal y no se podrá encontrar una normal funcionalidad incluso no se entenderá nada de lo que se realiza. Figura 2.3.3 El resultado del Algoritmo MINIMAX es el valor MINIMAX que nos permite tomar la de- cisión más acertada para el horizonte de búsqueda fijado. Fuente (P. maylso, 2017) 2.3.4 Algoritmo MTD-f El hecho de que la llamada al Algoritmo α-β, tenga los argumentos α0=-∞ y β0=+∞, significa que el valor MINIMAX v del nodo raíz, satisface a -∞<v<+∞. Esta es una ventana que se puede cambiar, no muy deprisa al contrario de lo que queremos, esto consume tiempo considerable y razonable, por lo que si desva- loramos los valores habremos ahorrado una gran can- tidad de tiempo a favor de nosotros. Si restringimos los valores a: α=β-1, podemos hablar de Ventana Nula en valor cero, en contradicción a la clásica y conocida ventana infinita que ya muchos lo conocemos. Por ejemplo Una sola llamada al esquema de la Ven- tana Nula o ero , nos dará una cota, no el valor MINI- MAX, para hallarlo debemos usar distintas cotas para modificar los límites de -∞ y +∞, para encontrar el valor MINIMAX. A este proceso se le llama Algorit- mo MTD-f. Las cotas f+ y f-, se inicializan a +∞ y -∞ respectiva- mente. Luego se comienzan a ajustar las cotas hasta que se la cota superior iguale o supere a la inferior; esto se hace en el procedimiento α-β con α=β-1, es decir búsqueda de Ventana Nula que devuelve g. Si g<β, ajustamos la cota a ese valor y sino ajustaremos la cota inferior. Este valor g, nos sirve para ajustar a β (Por lo tanto de α=β-1) para la siguiente iteración. El número de estas dependerá de lo lejos que este la estimación inicial de f del verdadero valor MINIMAX del nodo raíz. Figura 2.4.1. demuestra el trabajo que puede ir cau- sando el algoritmo MTD-f en una persona con capa- cidad de imaginar muchas cosas. Fuente (A.Loza , abril 2000 LA PAZ BOLIVIA) 2.4 Inteligencia artificial en Dota 2 Elon Musk es el cofundador y presidente de OpenAI, una compañía de investigación sin fines de lucro que trabaja para construir una inteligencia artificial segu- ra y garantizar que los beneficios de AI se distribuyan de la manera más amplia y uniforme posible.Open AI es la inteligencia artificial que logro vencer a los mejores jugadores de Dota 2 y conquistar completa- mente dicho videojuego tan complicado. Dota 2 es un videojuego de tipo MOBA (campo de batalla mul- tijugador en línea)es un juego de acción estratégico, en el cual controlamos a un héroe que tiene diferen-
  • 106.
    89 tes habilidades. En concreto,en Dota 2 consta de 113 héroes, cada uno con sus propias habilidades; con un sinfín de nú- meros notables de ítems que podemos usar, cada uno con sus propias características. Es por eso que es un juego muy conocido y popular entre los adolescentes y también muy popular en las escenas de los esports, por que requiere un nivel de concentración, instinto y capacidad de reacción que tienen pocos. En todo caso la victoria de una Inteligencia Artificial en un juego como DOTA 2 es más complicada que en el ajedrez, algo que se consiguió hace más de 20 años. Ya que DOTA 2 es un juego en tiempo real en el que, aunque se juega contra un humano, la improvi- sación es parte de la partida, precisamente por ser en tiempo real. Como dato, el ordenador con la IA que se llevó al torneo utilizó la mundial. Figura 2.4.1 Se muestra una imagen de la inteligen- cia artificial en Dota 2 Fuente (A. Perez 2015) 2.4.1 Una IA que parecía humana OpenAI es una organización sin ánimo de lucro fundada por Elon Musk; el multimillonario nunca ha ocultado el miedo que tiene del desarrollo de Inteligencia Artificial , y cómo puede poner en peligro a la humanidad. De hecho, Elon Musk menciono que la AI podría ser más peligrosa para la existencia de la humanidad que Corea del Norte. Por eso Musk cree que su deber es investigar el desarrollo ético de Inteligencia Artificial , y ver hasta dónde puede llegar dicha inteligencia Artificial. OpenAI no se dedica a buscar aplicaciones comerciales para Inteligencia Artificial, como hace DeepMind de Google; en vez de eso, asegura investigar en beneficio de la humanidad. La Inteligencia Artificial creada por sus ingenie- ros aprendió a jugar en solo apenas dos semanas; aunque para la Inteligencia Artificial es como si tuviese “varias generaciones” de experiencia. Eso es porque Open Inteligencia Artificial usa una red neuronal para probar una y otra vez con diferentes versiones de sí misma, hasta que encuentra la más idónea. 2.4.2 Resultados de OpenAI sobre DOTA 2 Según los jugadores que jugaron con Open AI, nos cuentan “que sus movimientos durante el juego pa- recían humanos, pero al mismo tiempo no lo eran”. Esta inteligencia artificial aprendió movimientos de los jugadores profesionales, también aplico nuevas ideas. Está claro que Open AI puede servir para hacer los mismo que hacen los humanos, como también aplicar nuevas soluciones a viejos problemas. Figura 2.4.1 Se muestra la imagen de un ejemplo en lo que es el OPEN AI. Fuente (Equilateral , 2015) 2.5 APLICACIONES DE LA INTELIGENCIA ARTIFICIAL EN LOS VIDEOJUEGOS Inteligencia artificial (IA), en un videojuego o juego de video, hace referencia a las técnicas utilizadas en com- putadoras y videojuegos para producir la ilusión de in- teligencia en el comportamiento de los personajes que no son jugadores (PNJ). Es un agente electrónico que puede evaluar, pensar y actuar en ciertos principios de la optimización y la coherencia para cumplir con una meta o propósito que le fue asignada. Como la Inteligencia Artificial se centra en el aspecto de la inteligencia y una buena base al jugar, su en- foque es muy diferente a la de la Inteligencia Artifi- cial tradicional, soluciones alternativas y trucos son
  • 107.
    90 aceptables y, enmuchos casos, las habilidades bajan el tono para dar a los jugadores humanos un sentido de justicia. Esto, por ejemplo, es cierto en los videojue- gos de acción en primera persona, donde la puntería perfecta estaría más allá de la habilidad humana. 3. CONCLUSIONES En conclusión, podemos mencionar que la inteligen- cia artificial en videojuegos actualmente está siendo aplicada en otras áreas que benefician la humanidad que aplican soluciones a nuevos problemas de forma más eficiente, que quizá algunos de nosotros, no nos damos cuenta, que utilizamos aplicaciones que imple- mentan Inteligencia Artificial . También se ve que esta rama de la inteligencia arti- ficial va sobresaliendo en muchos casos mostrando muchos juegos con estrategias beneficiando no en su plenitud a la humanidad. 4. REFERENCIAS BIBLIOGRAFICAS A. Bol Van Horne, C.; Frayret, J.M. & Poulin, D. (2005), ‘Knowledge management in the forest products industry: the role of centres of expertise’, En los video juegos 47(3), 167--184. Aerts J.M, B.D. (2004),Development Of Virtual For Climate Control Design, in ‘5th IFAC Workshop On Artificial Intelligence In strategy games , March 8-10 2004, Cairo, Egypt’. Atri, A. (2004),Expert System For Weed Management Of Wheat Fields In Iran, in ‘5th IFAC Workshop On Artificial Intelligence in strategy games, March 8-10 2004, Cairo, Egypt’. Bielza, C.; Barreiro, P.; Rodriguez-Galiano, M.I. & Martin, J. (2003’, Computers a in strategy games 39(2), 95-113. Hearn, A.B. & Bange, M.P. (2002), ‘SIRATAC and CottonLOGIC: persevering with DSSs in the Australian cotton indus- try’, artificial intelligence in strategy games.74(1), 27--56. Kamel, A. (2004),An Agent-Based Framework For The Development And Deployment Of Knowledge Based Systems, in ‘5th IFAC Workshop On artificial in- telligence in strategy games., March 8-10 2004, Cairo, Egypt’. Kim, G.; Nute, D.; Rauscher, H.M. & Loftis, D.L. (2000), ‘AppBuilder for DSSTools: an application development environ- ment for developing decision support systems in Prolog’, artificial intelli- gence in strategy games.27(1-3), 107- -125. Lee, P.G. (2000), ‘Process control and artificial intel- ligence software for artificial intelli- gence in strategy games.’, 23(1-3), 13--36. Li, M. & Yost, R.S. (2000), ‘Management-oriented modeling: optimizing nitrogen man- agement with artificial intelligence’, artificial intelligence in strategy ga- mes.65(1), 1--27. Lopez Cruz, I.L.; van Willigenburg, L.G. & van Straten, G. (2003), ‘Optimal con- trol of nitrate in lettuce by a hybrid approach: differential evolution and adjustable control weight gradient al- gorithms’, Computers and Electron- ics artificial intelligence in strategy games.40(1-3), 179--197. Park, S.; Hwang, C. & Vlek, P. (2005), ‘Comparison of adaptive techniques to predict crop yield response under varying soil and land management conditions’, artificial intelligence in strategy ga- mes.85(1), 59--81. Pasgianos, G.D.; Arvanitis, K.G.; Polycarpou, P. Z.Juaquin,2012https://es.wikipedia. org/wiki/IntelINteligencia_artificial_ (videojuegos)
  • 108.
    91 INTERACCION HUMANO-COMPUTADORA (IHC) LuisFernando Bautista Mollo, Daniel Velarde Quispe Xtremo170@gmail.com , danielvelarde309@gmail.com Universidad Mayor de San Andrés Facultad de Ciencias Puras y Naturales Carrera de Informática Gramática Española RESUMEN El presente trabajo tiene por finalidad mostrar la vi- sión del ser humano con la computadora, de qué ma- nera se formó una interacción entre ambas, la actua- lización de la computadora ha llevado al ser humano a crear nuevas perspectivas de importancia para una mejor interacción con las máquinas, ya pasó casi un siglo de interacción humano-computadora y no se ha podido conjeturar un concepto valido. Actualmente la mayoría de los sistemas de informa- ción utilizan las interfaces graficas conocidas amplia- mente como interfaces graficas de usuario las cuales se basan en el manejo de imágenes y objetos gráficos como iconos, ventanas y menús. Sin embargo existen aplicaciones que requieren el desarrollo elaborado de interfaces que permitan que las tareas del usuario pue- dan llevarse a cabo con éxito. Palabras clave: Usuario, Interface, Software, Máquina, IHC, Computador, Periféricos, Iconos, Me- nús. ABSTRACT The present work aims to show the human being’s vision with the computer, in what way an interaction between them was formed, the computer update has led the human being to create new perspectives of importance for a better interaction with the machines, almost a century of human-computer interaction has passed and no valid concept could be conjectured. Currently most information systems use graphical interfaces widely known as graphical user interfaces which are based on the management of images and graphic objects such as icons, windows and menus. However there are applications that require the ela- borate development of interfaces that allow the user’s tasks to be carried out successfully. Keywords: User, Interface, Software, IHC, Machine, Computer, My Account, Cell phone, icons, menus. 1. INTRODUCCION Durante las últimas décadas, la computación logró grandes avances, en 1930 hubo las primeras interac- ciones Humano-Computadora (persona-ordenador) solo disponibles para investigadores, que ayudaban en los cálculos cómputos y que se iban actualizando a menudo, desde entonces no se ha podido encontrar un concepto bien definido sobre el tema humano-compu- tadora, universalmente es la asignatura que estudia el intercambio de información mediante software entre los humanos y las computadoras. Este artículo presenta la investigación que se ha hecho en el campo de la interacción humano-computadora (IHC) en relación a la psicología humana buscando hacerla entendible y fácil de utilizar, actualmente mu- chos sistemas de información utilizan las interaccio- nes con imágenes conocidas como interfaces graficas de usuario, que basan en el uso de imágenes y objetos gráficos como iconos, ventanas y menús. También existen aplicaciones que necesitan el desarrollo de interfaces que permitan que las tareas de las persona puedan llevarse a cabo con facilidad y sencillez. 2. DESARROLLO No hay un concepto bien definida de interacción hu- mano-computadora (IHC), pero en términos generales la IHC es un área de las ciencias de la computación que se encarga del intercambio de información tanto visual y físicamente entre los humanos y las compu- tadoras. Hoy en día la gente interactúa más con las computado- ras que con las personas que lo rodea. Figura 1. Interacción Humano-Computador Fuente (Abascal J, Interacción H-C, 2001)
  • 109.
    92 Figura 2. InteracciónHumano-Computadora Fuente (Abascal J, Interacción H-C, 2001) 2.1 MULTIPLICIDAD DE NOMBRES Según Armagno G., Martin A., Marichal S. (2010), Modulo de Extensión NEXO (IPC), hay multiplici- dad de nombres como: En español: Interacción humano- computadora (IHC) Interacción persona-ordenador (IPO) Interacción hombre-máquina (IHM) En ingles: Human-computer interection (HCI) Man-machine interection (MM1) Computer-human interection (CHI) 2.2 Interacción “El usuario no opera la computadora: se comunica con ella” (Card. Moran y Newell, 1983). ¿Dónde? En la interfaz (o interfaz de usuario). También incluye el software y hardware. ¿Cuándo? Se produce Interacción desde el momento en que la persona entra en contacto con la maquina hasta que deja de entrar en contacto. Figura 3. Sentarse bien frente a la maquina Fuente (YouTube Articulo Interacción H-C, 2013) Esta asignatura de la IHC se encarga de diseñar, eva- luar e implementar aparatos tecnológicos interactivos, para así estudiar los problemas más comunes que pue- dan llegar a afectar. Figura 4. Diseño de Interfaces Fuente (AIPO, 2014) 2.3 INTERFAZ DE USUARIO Es un punto de contacto entre humanos y máquinas donde ocurre la interacción. La interacción se realiza a través de dispositivos inter- mediarios, denominados periféricos. 2.4 LOS PERIFÉRICOS Son dispositivos en la cual a través de ellos el ordena- dor se comunica con el mundo exterior. Pueden no ser imprescindibles para el funcionamiento de la computadora. Estos periféricos siempre están afuera de la CPU. Periféricos de entrada: Teclado, ratón, touchpad, apuntador, joystick, touch- creen, multitouch, screen, gamepad, scanner, micró- fono, cámara, tablet, lector de símbolos, acelerómetro. Periféricos de salida: Monitos, impresora, plotter, parlantes. 2.5 DISEÑO DE INTERACCIÓN El diseño de interacción se basa tanto en los distintos gustos de las personas para así poder tener un mejor diseño que se adapte al humano y pueda haber una mayor interacción. - Analiza y diseña interfaces de usuario. - Crea nuevos tipos de interfaces. - Integra y evalúa tecnología. - Desarrolla métodos para entender tareas y prácticas laborales. - Evalúa la usabilidad de dispositivos y sistemas.
  • 110.
    93 - Estudia y mejoraprocesos implicados en el desarro- llo tecnológico. 2.6 MODELOS MENTALES Los modelos mentales en la interacción humano-com- putadora son representaciones de nuestra mente que nos permiten predecir el resultado de las acciones en el mundo y ayudan a una mejor interacción huma- no-computadora. 2.7 ICONOS Se define un icono como una señal (como una palabra o un símbolo gráfico) cuya forma sugiere su signifi- cado. En la pantalla de una computadora un icono es cual- quier representación gráfica que hace referencia a un objeto o una acción que puede realizar. 2.7.1 ¿POR QUÉ LAS COMPUTADORAS UTILIZAN ICONOS? Es evidente que hay múltiples representaciones de los objetos en el mundo real y la situación es la misma en la pantalla de un ordenador, los iconos son las repre- sentaciones más potentes que permiten el reconoci- miento inmediato, aumentar la velocidad para que los individuos puedan encontrar los objetos en la pantalla. La relación entre un icono y su significado debe ser automática y en consecuencia independiente de cual- quier aprendizaje. Figura 5 Tipos de Iconos (Ejemplo 1) Fuente (Google Imágenes, 2010) Figura 6. Tipos de Iconos (Ejemplo 2) Fuente (Google Imágenes, 2010) 2.8 MENÚS Los menús es un grupo de palabras y/o iconos simi- lares visualmente en una pantalla de ordenador que permite al usuario seleccionar una acción a realizar. Para utilizar los menús que aparecen a menudo en la pantalla d un grupo con cada menú que contiene una serie de elementos de menú, el usuario debe encontrar el elemento de menú que corresponde a la acción de- seada y luego seleccionar ese elemento de menú, este proceso implica tanto la memoria, el usuario debe de recordar el mapeo de elemento de menú a la acción realizada y la búsqueda visual. Figura 7. Tipo de Menú Fuente (Google Imágenes, 2010) 2.9 OBJETIVOS El objetivo de esta asignatura es para mejorar el in- tercambio de comunicación entre los humanos y las computadoras, reducir los errores, aumentar la satis- facción, reducir la dificultad, y lo más importante ha- cer más productivas y eficientes las tareas que rodean a las personas y las computadoras. Uno de los objetivos principales de la IHC es com- prender como la gente utiliza las máquinas para así diseñar maquinas más usables. Un principio general es conocer las fuerzas y debili- dades de las personas y las computadoras para sacar el mejor provecho posible de su interacción, en un con- texto dado. 2.10 PRINCIPALES COMPONENTES 2.10.1 Usuario: El ser humano tiene una capacidad limitada de proce- sar información; lo cual es importante al diseñar inter-
  • 111.
    94 faces. Nosotros losusuarios nos podemos interactuar por medio de cuatro canales de entrada/salida que son la visión, audio, tacto y movimiento, un hecho que no se puede pasar por alto es que todos los usuarios ten- drán habilidades comunes, pero habrá otras que varia- rán según la persona. Principales capacidades de las personas: - Creatividad - Iniciativa - Manejo de excepciones - Habilidad de aprender de la experiencia - Manejo adecuando de problemas mal definidos - Buenas habilidades motoras - Juicio - Sentido de Ética y responsabilidad - Flexibilidad y adaptabilidad - Increíble poder de cálculo. 2.10.2 COMPUTADOR El computador tiene un límite de velocidad en el procesamiento, esto afecta a la velocidad de procesa- miento al hecho de utilizar una red de trabajo u otra. Principales capacidades de las computadoras: - Precisión y posibilidad de repetir tareas - Rapidez y exactitud en los cálculos - Son inalcanzables - Objetividad - Paciencia - Robustez física - Enorme potencia gráfica y sonora 2.10.3 DISCIPLINAS Dentro del área de la Integración humano-computador existen una serie de disciplina y las más importantes como: - Informática - Psicología - Ciencia Cognitiva - Filosofía - Lingüística - Sociología - Antropología 2.11 EVOLUCIÓN Las primeras interacciones humano-computador fue la utilización del lápiz óptico que llevó al desarrollo de técnicas pioneras para la interacción humano-com- putador. Muchas de estas nacen desde 1963, año en que Iván Sutherland desarrolló un Sketchpad para su tesis doctoral, la cual marcó el inicio de los gráficos por computadora. A partir de aquel instante se ha es- tado trabajando en este campo de interacción huma- no-computadora, creando y mejorando los algoritmos y el hardware para que permitan mostrar y manipular objetos con mucho más realismo, todo eso, con la fi- nalidad de conseguir gráficos interactivos. Algunos de los avances relacionados fueron intentos de llegar a una combinación hombre-máquina. A par- tir de aquí surgió los cimientos de la interacción hu- mano-computador, como sería el caso del ratón, pan- tallas con mapas de bits, computadoras personales, la metáfora de escritorio y las ventanas y los punteros. Asimismo, el hecho de aplicarse con sistemas ope- rativos desembocó en la creación de nuevas técnicas para hacer interfaces de dispositivos de entrada/salida, controles de tiempo, multiprocesadores y para sopor- tar el hecho de que se abrieran diversas pantallas o que hubiera animaciones. Figura 8. Lápiz óptico Fuente (Colaboraciones de Wikipedia, 2017) 2.12 APLICACIÓN Todos los seres humanos son diferentes entre sí, to- das las interfaces de usuario deberían de acomodarse a esas diferencias, que cualquier persona fuera capaz de utilizarlas sin problemas. 2.12.1 DISEÑO WEB Es una actividad que consiste en la planificación, di- seño e implementación de sitios web y páginas web, no es simplemente una aplicación del diseño conven- cional ya que requiere tener en cuenta cuestiones tales como navegabilidad, interactividad, usabilidad arqui-
  • 112.
    95 tectura de lainformación, interacción de medios como el audio, texto, audio, imagen y video. Figura 9. Diseño web Fuente (Google imágenes, 2013) 2.12.2 DISEÑO KIDS Este el caso de las interfaces para el manejo de apli- caciones de software educativo ya que hay elementos relevantes que deben considerarse en su diseño y en gran parte del éxito del aprovechamiento del material que se presenta depende de la una buena interfaz. Figura 10. Diseño Kids Fuente (Google imágenes, 2016) 2.12.3 DISEÑO MÓVIL Son las interfaces que nos proporcionan usabilidad para las herramientas multimedia de localización para nuestros dispositivos móviles. Figura 11. Diseño Móvil Fuente (Google imágenes, 2013) 2.13 ERGONOMÍA COGNITIVA La Ergonomía Cognitiva, es aquella rama que se ocu- pa de los procesos mentales, tales como la percepción, la memoria, el razonamiento y la respuesta motora, que afectan a las interacciones entre los seres huma- nos y otros elementos de un sistema. Estos temas son relevantes que incluyen carga de trabajo mental, la toma de decisiones, el rendimiento experto, la inte- racción humano-computadora, la fiabilidad humana, el estrés laboral y la forma como estos pueden estar relacionados con el diseño de los sistemas humanos. La ergonomía cognitiva estudia los procesos de cogni- ción en el trabajo y ajustes operativos, con el objetivo de optimizar, mejorar el bienestar humano y el rendi- miento del sistema. Esto es un subconjunto del campo más grande de los factores humanos y la ergonomía. 2.13.1 OBJETIVOS La Ergonomía cognitiva también conocida como inge- niería cognitiva (aunque esto era un campo anterior) es una rama emergente de los Factores Humanos y la Ergonomía, que hace especial hincapié en el análisis de procesos cognitivos de operadores en industrias modernas y en ambientes de trabajo similares. Los ejemplos incluyen el diagnóstico, la carga de trabajo, el conocimiento de los procesos, la toma de decisiones y la planificación. La ergonomía cognitiva tiene como objetivo mejorar el desempeño de las tareas cogniti- vas a través de varias intervenciones como el diseño centrado en el usuario de la interacción hombre-com- putador. 2.14 TENDENCIAS YA PRESENTES 2.14.1 JUEGOS DE ORDENADOR Aplicaciones que más han empleado técnicas de re- presentación multisensorial combinando los inputs quinestésicos con los dispositivos de salida visuales y auditivos. 2.14.2 REALIDAD VIRTUAL Estamos en los inicios de la próxima revolución de la IHC, una tecnología que llevará al usuario a atravesar la pantalla y a entrar en el mundo que hay dentro, un mundo en el que el hombre puede interactuar con ob- jetos en 3D cuya fidelidad crece a la vez que la poten- cia de los ordenadores y los avances de la tecnología.
  • 113.
    96 2.14.3 INTELIGENCIA ARTIFICIAL Esel diseño de programas informáticos que actúan simulando aspectos de la inteligencia humana, espe- cialmente en la resolución de problemas. 2.14.4 COMUNIDADES VIRTUALES Son grupos de personas que comparten el interés por un tema determinado y que utilizan Internet para co- municarse. 3 CONCLUSIONES El tema de interacción humano-computadora es muy rico tanto en términos de las disciplinas que extrae de oportunidades, así como para las investigaciones. El estudio de la interfaz de usuario proporciona un enfoque de doble cara para la comprensión de cómo interactúan los seres humanos y maquinas mediante el estudio de las interfaces existentes. Podemos terminar diciendo que la interacción huma- no-computadora tiene un avance científico increíble con brillantes ideas, se pueden encontrar soluciones que mejoren y faciliten la vida humana. La interacción humano-computadora también puede satisfacer el aburrimiento de muchas formas con: jue- gos, redes sociales, música, videos y todo aquello que se relaciona con la computadora. Diremos que es muy importante conocer al usuario ya que todos y cada uno tienen un entendimiento muy diferente, Es de vital importancia este buen entendi- miento entre ambas partes dado que sino, la interac- ción no será posible. 4. REFERNCIAS BIBLIOGRÁFICAS Abascal J. (2001) La interacción persona-ordenador. Madrid, España, Editorial AIPO. Alvarado C. (19-Feb-2017), Interacción Humano computadora. Recuperado: http://ihcby- claualvarado.blogspot.com/2017/02/httppla- yer.html Armagno G., Martin A., Marichal S. (2010), Modu- lo de Extensión NEXO (IPC). Recuperado: http://eva.fing.edu.uy>resource>view Cañas Delgado J. J. (2004) Personas y maquinas: él diseño de su interacción desde la ergonomía cognitiva. Barcelona, España, Editorial Pirá- mide. Carrol, Preece, (1994-2002) Interacción Humano computadora (IS-438), Recuperado: http:// ict.udlap.mx/people/ingrid/clases/is438/ ihc_1.htm Colaboraciones de Wikipedia (23-Oct-2017), Inte- racción Persona-Computadora. Recuperado: https://es.wikipedia.org/wiki /interacci%- c3%b3n_persona-computador a Condori Carpio R. F. (2014) Articulo Interacción per- sona-ordenador Recuperado: https://www. youtube.com/watch?v=aqrE3w_w8OI Gea M. (22-Sep-2013), Interacción Persona-Orde- nador. Recuperado: https://www.goo gle. com/url?sa=t&sour=web&rct=j&url=h- ttps://es.slideshare.net/mobile/mgea/te- ma-1-interaccion-persona-ordenador-2013 &ved=0ahukewjqravt0fxwahvkfzakhcxj bocqjzgldtar&usg=aovvaw0vtrr4x05sqtb cyzfms1ta. Lores Vidal J. (1998-1999) AIPO Interacción perso- na-ordenador Recuperado: http://aipo.es/ Manchon E. (20-Dic-2004), Que es la Interacción Hu- mano –Computadora Recuperado: https://de- sarrolloweb.com/articulos/1758.php Montuschi P, Sanna A, Lamberti F, Paravati, (Sep- 2014) interacción entre humanos y com- putadoras. Recuperado: https://www. com- puter.org/web/computingnow/archive/ september2014-spanish Pérez Porto J., Gardey A. (2008), Definición de computadora. Recuperado: ht- tps://definicion.de/computadora/ Universidad Oberta de Calatayud (20-Sep-2017) In- teracción Persona-Ordenador Recuperado: http://estudios.uoc.edu/e s/a signaturas-li- bres/informatica-multimedia-telecomunica- cion/interaccion-persona-ordenador/presen- tacion
  • 114.
    97 LAS REDES SOCIALES,EL MAL USO DE LA INFORMACIÓN Y SUS CONSECUENCIAS Aramayo Aranibar Daniela Andrea, Rios Acuña Ivan Rodrigo, Roca Cruz Ronaldo Renzo danniandrea@hotmail.com, ivanrios4@hotmail.com, therockadx92.e@gmail.com Universidad Mayor de San Andrés Carrera de Informática Gramática Española RESUMEN En la actualidad las redes sociales llegaron a ser una parte importante en la vida de las personas ya que nos permite mantenernos comunicados con cualquier per- sona. Una herramienta como esta solo se creería que trae cosas buenas. Sin embargo, por muy buena que esta parezca, la moneda tiene otra cara ya que, unas cuan- tas personas no le dan el uso adecuado a esta tal útil herramienta, nadie puede estar excluido ya que sean parientes o conocidos todos conocen a alguien que usa mal esta herramienta. Entre las principales desventajas que tienen son: el gran tiempo que consumen, al ser casi anónimo trae- ría varias clases de abusos malintencionados, aparte de dañar la gramática. Pero para poder determinar las desventajas de las re- des sociales antes hay que entender bien puntualmente lo que esta significa El concepto de red Social hace referencia a una es- tructura o forma de interacción social que involucra a un conjunto de personas relacionadas por alguna si- militud. En lo siguiente de este artículo se mostrará de manera más específica algunas de las formas en las cuales se llega al mal uso de las redes sociales, creando así una desventaja de las mismas. Palabras Clave: Redes Sociales, Riesgos, Ciberbull- ying, Internet, Acoso Virtual, Identidad, Padres, Ado- lescentes, Web. 1.-INTRODUCCIÓN Con cada año que pasa, la sociedad va avanzando en lo que es la tecnología y eso va también a lo que es las redes sociales ya que tiene una gran importancia en la sociedad actual, reflejando la necesidad del ser humano, y como menciono Aristóteles «El Hombre es un ser sociable por naturaleza”, pero ahora en la ac- tualidad las redes sociales se ha convertido en uno de los elementos de Internet más difundidos, que ofrecen a sus usuarios un lugar común para desarrollar comu- nicaciones constantes, y es por esto que muchasper- sonas comparten información que no deberían dar, y gracias a este mal uso de la información la persona puede verse afectada psicológicamente por la presión de atacante ya sea que le estén haciendo un ciberbull- ying, un acoso virtual o un robo de identidad. 2.-DESARROLLO 2.1.¿Quésonlas Redes Sociales? Las redes sociales son comunidades virtuales. Es decir que son plataformas de internet que agrupan a personas que se relacionan entre sí y comparten información e intereses comunes, este es justamente su principal ob- jetivo: entablar contactos con gente, ya sea para vol- ver a encontrarse con antiguos amigos o para generar nuevas amistades. Pero permanecer en una red social, le permite al usuario construir un grupo de contactos. Este grupo de contactos pueden ser amigos personales que él conoce, o amigos que no conoce o también, son contactos que se conocieron mediante el internet. 2.2 ¿Desdecuándoycómosurgieron? El primer antecedente se remonta a 1995, cuando un ex estudiante universitario de los Estados Unidos creó una red social en Internet, a la que llamó classmates. com (compañeros de  clase.com), justamente para mantener el contacto con sus antiguos compañeros de estudio. Pero dos años más tarde en 1997 cuan- do apareció SixDegrees.com (seis grados.com) esta rede sociales se basan en la teoría de los seis grados su nombre fue porque cualquiera en la Tierra puede estar conectado a cualquier otra persona en el planeta a tra- vés de una cadena de conocidos que no tiene más de seis intermediarios. Esta teoría fue propuesta en 1929 por un escritor húngaro llamado Frigyes Karinthy, en una pequeña historia llamada Chains. Y gracias a esto se genera en realidad el primer sitio de redes socia- les, tal y como lo conocemos hoy, que permite crear perfiles de usuarios, listas de amigos, etc. Luego a comienzos del año 2000 y especialmente entre el 2001 y el 2002, aparecen los primeros sitios web que
  • 115.
    98 promueven el armadode redes basados en círculos de amigos en línea. Este era precisamente el nombre que se utilizaba para describir a las relaciones sociales en las comunidades virtuales. Estos círculos se popularizaron en el 2003, con la llegada de redes sociales específicas, que se ofrecían ya no sólo para re encontrarse con amigos o crear nuevas amistades, sino como espacios de intereses afines. 2.3¿Cómoeselfuncionamientodeunaredsocial? Las redes sociales permiten que los usuarios armen en ella su propia página Web en esta página, las per- sonas pueden contar quiénes son, hablar de sus gustos e incluir la información que quieran compartir con su lista de amigos. Para crear y mantener una página personal en una red social, hay que seguir diferentes pasos: Crear un perfil de usuario en este perfil consiste en las características que la persona quiere dar a conocer sobre sí misma, para incorporarse como nuevo miembro en una red social. En el perfil, la gente incluye los datos personales que quiere: nombre, di- rección electrónica, actividades, gustos, intereses, etc. De cualquier modo, sólo con el nombre y dirección de email ya puede ser integrante. Una vez que el usuario tiene un grupo social en la red, puede comunicarse con sus integrantes, intercambiar información, subir fotos, compartir música, ver el Per- fil de otro, etc. (Sanchez, 2009). 2.3.1. Tipos de redes sociales: Existen dos tipos de redes sociales que son: las redes sociales horizontales y las redes sociales verticales. Las redes sociales horizontales.- En esta clase de red social no va a un tipo específico de usuarios, permite el uso de libre de cualquier persona algunos ejemplos de esta serian Facebook, Twitter, Google+, etc. Las redes sociales verticales: A diferencia del otro este va dirigido a un tipo determinado de usuarios que ten- gan un interés en común. Los verticales profesionales son aquellos que tienen un nexo profesional y van dirigidas a un tema en con- creto, algunos ejemplos de redes serian como Linked- ln o blogs temáticos. Los verticales de Ocio tienen la finalidad de reunir usuarios que tengan en común actividades de distrac- ciones páginas de deportes videojuegos música tales como Youtube, ESPN, Meristation, etc. Los verticales mixtos: ofrecen a los usuarios y empre- sas un entorno específico para desarrollar actividades tanto profesionales con personales en torno a sus per- files algunos podrían ser Yuglo, Unience, Pide Cita. 1.4 ¿Cuáleslafrecuenciadeusodelasredessocialesenlos adolescentes? La mayor parte de las personas que usan las redes sociales son jóvenes. Las edades promedio de estos usuarios a nivel mundial son de 12 y 30 años que per- tenecen al 80% de los usuarios en la cual se pude ver que en el rango de 12 a 19 años el uso es bastante alto. ¿Qué es lo que más valoran los adolescentes de sí mismos? La popularidad. ¿Y qué necesita un adolescente para ser popular? Amigos, humor y espontaneidad. Esto es lo que se pudo ver a través de una encuesta realizada a 3500 alumnos secundarios. Ser popular es tener muchos amigos es la conclusión que llegaron. También se pudo ver que el 50% de los chicos visita la red día por medio, el 30% la visita a diario y el 20% la visita una vez por semana. La iden- tidad de los adolescentes no puede entenderse sin sus amigos. Y sin ellos, tampoco es fácil comprender los usos que hacen de los medios y las tecnologías. 2.5.¿Cuáleslarazónporlacualsontanpopularesentrelos jóvenes? Cada día muchos adolescentes eligen unirse a una red social. Su crecimiento se pudo ver en estos últimos años llegó de la mano de la llamada Web 2.0, que pro- puso un nuevo uso de Internet. No fue hasta el año 2000 la red permitía básicamente buscar información. Pero llegando la Web 2.0 posibilito además la produc- ción y el intercambio de contenidos por y entre los usuarios. En la Figura 1 se presenta las redes sociales que son más usadas actualmente por los adolescentes. Figura 1. Las Redes Sociales Más Usadas En 2017. Fuente: (Herrero, 2017).
  • 116.
    99 1.6. Los Riesgos másDañinos En la actualidad las redes sociales llegaron a ser una parte importante en la vida de las personas ya que nos permite mantenernos comunicados con cualquier per- sona. Una herramienta como esta solo se creería que trae cosas buenas, Sin embargo por muy buena que esta parezca, la moneda tiene otra cara ya que, unas cuantas personas no le dan el uso adecuado a esta tal útil herramienta, nadie puede estar excluido ya que sean parientes o conocidos todos conocen a alguien que usa mal esta herramienta. Entre las principales desventajas que tienen son: el gran tiempo que consumen, al ser casi anónimo traería varias clases de abusos malintencionados, aparte de dañar la gramática. Una encuesta hecha realizada por Microsoft sobre Seguridad y Privacidad en 2014 entre 1.400 adoles- centes y 200 colegios. Una de las conclusiones fue que los chicos menores de 17 años corren un riesgo más alto por la forma en que usan las redes sociales e Internet en general. Un 30%, por ejemplo, comparte información personal con gente que no conoce en la vida real. Un 39% sube fotos personales y cuatro de cada 10 llegan a conocer personalmente a un contacto que era sólo virtual. Pero para poder determinar las desventajas de las re- des sociales antes hay que entender bien puntualmente lo que esta significa El concepto de red Social alude a una estructura o for- ma de interacción social que involucra a un conjunto de personas relacionadas por alguna similitud.En lo siguiente se mostrará de manera más específica algu- nas de las formas en las cuales se llega al mal uso de las redes sociales, generando así una desventaja de las mismas.Dentro de las desventajas existentes, conside- raremos: 2.6.1. Uso Excesivo de Redes Sociales Esta herramienta consume una gran cantidad de tiem- po ya que es común que se llegue a encontrar con va- rios temas que no son más que distractores comunes que reducen nuestro tiempo para realizar algunas ac- tividades. El uso excesivo de este llega a causar incomodidad al estar tanto tiempo sentado a un monitor o con el celular, lo cual produce problemas a la salud, ya que al estar de una sola posición o de posiciones que no son adecuadas pueden causar desde dolor de espalda hasta deformidad vertebral. Otro efecto negativo que se encuentra es la alta ex- posición de nuestros ojos a las altas luminosidades lo cual podría llegar a ocasionar vista borrosa o incluso problemas de visión. En la Figura 2 mostramos el por- centaje aproximado de tipo de uso que hoy en día se da a las redes sociales. Figura 2. Las Redes Sociales una causa para el bajo rendimiento escolar. Fuente: (Cruz, 2014). Aunque esta Red Social este enfocada en la comunica- ción irónicamente lo que su uso excesivo hace que nos limitemos a la comunicación por este medio alejándo- nos poco a poco de una buena comunicación directa y personal al reducirse los temas a simple conversacio- nes vacías y carentes de sentido. 2.6.2. CiberBullying Existe persona las cuales usan estas Redes Sociales para poder colaborar con los demás, Pero también existen personas las cuales su única finalidad es la de acosar de forma malintencionada a un grupo o a algu- na persona vulnerable. Citando el concepto de Ciberbullying tenemos que “es el uso de los medios telemáticos para ejercer acoso psicológico” (Belmontes, 2011). Analizando el concepto y comparándolo con el abuso ya sea escolar que llega a ser incluso físico, el ciber- bullying llega a un daño psicológico lo cual genera problemas a corto y largo plazo comenzando desde un aislamiento de la sociedad o incluso el suicidio. La falta de comunicación de los Padres y la falta de conocimiento sobre los sitios a los que los menores acceden, vuelve vulnerables a los menores a caer en este ciberbullying, Es claro que el bullying y el Ciberbullying están liga- dos entre si ya que se extrapola lo cual es un problema para los menores y más aún cuando no llegan a repor- tar el abuso. 2.6.3. ROBO DE IDENTIDAD Existen riesgos a los que se exponen las personas de- bido a la interacción por medio de las redes sociales en las que a veces es indispensable mostrar datos per- sonales, debido a que se hacen públicos, éstos pue-
  • 117.
    100 den ser malutilizados para defraudar, intimidar o en ocasiones el objetivo principal de aquellos ladrones de identidad, será dañar la imagen de determinada per- sona. Una persona puede ser víctima de un robo de identidad en redes sociales, cuando alguien logra tener acceso a sus cuentas y manipula de manera inadecuada los da- tos que constituyen su identidad, como ser nombre, domicilio, teléfono, cuentas bancarias, huellas dacti- lares, fotografías, número de seguro social y demás. 2.6.4. Acoso Sexual En una encuesta aplicada en octubre del 2014, por  Pew Research Center  se reveló que “cuatro de cada diez usuarios en internet han sufrido de acoso y que un 73% de ellos han sido testigos del acoso que otra persona ha sufrido”. Otra forma de acoso en redes sociales, cuando las per- sonas se exponen a otras persona cuando proporcio- nan su correo electrónico o aceptando solicitudes de amistad de cualquier persona En el año 2009 Sophos creó dos usuarios ficticios de Facebook, con los anagramas de identidad falsa e identidad robada, y desde sus cuentas se enviaron 100 solicitudes de amistad a un grupo de personas entre una determinada edad, los cuales en un tiempo de dos semanas aceptaron tales solicitudes. El acoso comienza comúnmente pidiendo la foto de la víctima y seguida por algún video con contenido erótico, con el tiempo las conversaciones llegan a ser incomodas para el usuario mientras que el acosador comienza a difundir la información con el fin de dañar a la persona. 2.6.5. Pornografía infantil y Pedofilia Si reunimos ideas de los dos puntos anteriores inme- diatos, Aplicando en el caso de que la víctima sea un menor de edad el niño puede estar en riesgo de sufrir algún daño, tal como ser víctima de pornografía in- fantil o pedofilia, actualmente conocida por el nuevo término “Grooming”. Si para llevar a cabo la ubicación de un pedófilo, es un trabajo complejo. Debido a que en redes sociales no se conoce la información completa de los usuarios, es de notar que para localizar a un pedófilo o aquella perso- na que distribuye imágenes o videos con contenido de pornografía infantil, será aún más difícil debido a que el usuario, puede ser falso y además por el hecho de que puede operar desde el otro lado del mundo. Para conocer el medio en el cual el grooming o pe- dofilia podría llegar a ser más propenso, se realizó una encuesta en el año 2013 entre las principales redes sociales, en la cual un 75.4% aseguro que Facebook y Twitter fueron en los que esta acción resulto más probable, ya que son las más populares. En la Figura 3 se puede observar el porcentaje de los medios en los cuales el gromming ocurre con frecuencia. Figura 3. Grooming, el 68,3% de los encuestados cree que es una amenaza muy frecuente. Fuente: (Goujon, 2013). 2.6.6. Trata de Personas Por otro lado si ponemos el ejemplo de una página para conseguir pareja o cualquier red social en la que 2 usuarios puedan tener una salida de amigos o relación amorosa, tenemos que a través de engaños y de falsa información se puede dar una cita en la que se tenga la oportunidad de conocerse físicamente ambas partes, y como consecuencia de esos engaños se presente un secuestro y una posible explotación sexual. Considerando el caso del secuestro es posible que la víctima se traslade hasta el otro lado del mundo, lo cual complica su localización y proporciona muchos problemas tanto para éste como para su familia. Se- guida de La explotación sexual que es una posibilidad comúnmente en las mujeres acompañada del maltrato físico y emocional. Las desapariciones, siempre están ligadas con el de- sarrollo de alguna actividad ilícita, en lo general se llevan a cabo para generar sobre los afectados la eje- cución de algún trabajo fuera de la ley o para algún tipo de esclavitud.
  • 118.
    101 1.7. Riesgos no Dañinos Cambiandoun poco la idea, de la forma en que las redes sociales están vinculadas con algún tipo de daño a la sociedad, tenemos: 2.7.1. Posible daño a la gramática La forma de comunicación que se presenta común- mente en la sociedad, se da de tal forma que la in- teracción sea fácil además que presente una forma propia de comunicación. Así que, tenemos que ciertas personas suelen modificar su estructura gramatical de tal forma que este tipo de manipulación, propicia una pérdida de información, y también la falta de com- prensión de texto. Tal como citó Mario Vargas Llosa: “El Internet ha aca- bado con la gramática, ha liquidado la gramática. De modo que se vive una especie de barbarie sintáctica”(- Vargas, 2011), haciendo referencia a los mensajes que comúnmente suelen escribir jóvenes, el celular y en redes sociales. A tal actividad de acortar palabras y relacionarlas con su fonética para ser expresadas en un fragmento tex- tual, además de que cada vez es más difícil de com- prender, genera un retroceso en la gramática, que en lo general es la base de la comunicación y que durante años se han desarrollado suficientes herramientas que facilitan la comunicación escrita. También podemos suponer que manipulación de al- gunos términos, al ser redactados en las redes sociales sólo se da entre estos, como una forma útil de facilitar la escritura, pero de no ser así también generará daños en el vocabulario. 2.7.2. Omisión de Acentos Es común que se omiten los acentos, la ausencia de es- tos ocurre desde la búsqueda de información, hasta el diálogo en la web, donde más se presenta, lo cual pue- de generar confusión: como ejemplo consideremos los significados de las palabras “difícil” y “espectáculo”. 2.7.3. Reemplazo de letras Por ejemplo al cambiar la letra k por q o el uso de esta para acortar el uso de la palabra que, es decir se reemplaza “que” por “q” o “k” .En el uso de algún tér- mino extranjero, la letra h por la letra j, como ejemplo tenemos hard por jar. 1.8. Como darle un buen uso las Redes Socia- les y el Internet Es importante que los padres o tutores establezcan re- glas para el uso del Internet y redes sociales por parte de los hijos y sean conscientes de las actividades en línea que puedan llevar a cabo. También deberían ase- gurarse de que navegar en internet no distraiga a los jóvenes y niños de las tareas escolares, las actividades sociales y otros intereses importantes. Probablemente las personas se comporten decente- mente en la red, pero algunos son groseros y malin- tencionados en la vida real. Es por esto que cada padre está en el rol de advertir a sus hijos que deben tener cautela de no dar información a personas extrañas en el Internet como ser: nombre, dirección, teléfono, edad, el lugar donde estudia, número de tarjeta de cré- dito, etc. Ten en cuenta que lo que no dices en persona no lo digas por Facebook. Tenemos que darle un buen uso a las redes sociales y saber qué es lo que decimos o vamos a publicar, del mismo modo con las fotogra- fías. Recordemos que las redes sociales son mundiales y que todo lo que digas o hagas puede ser visto por muchas personas Las redes sociales te dan la opción de personal la pri- vacidad de tu perfil. Donde tú puedes elegir quienes tiene acceso a ver tus fotos, información personal y publicaciones. Ya sean solo tus amigos, solo tú, o los amigos de tus amigos o cualquier otra persona, mejor dicho todos. 3.-CONCLUSIONES Como se tiene contemplado, en la vida existen cosas que tienen las propiedades de ser ventajosa en su uso, ya que la facilitan y dan lugar a desarrollar muchas más actividades. Pero se debe de considerar que, en la mayoría de esas se puede encontrar alguna desventaja, que terminó por dañar y/o complicar la actividad para la cual fueron creadas, pero también debemos de ha- cer notar que este tipo de desventajas son ocasionados por quien proporcione un mal o inadecuado uso. Como es el caso de este tipo interacción social, des- de su creación han facilitado la vida de quienes usan estas redes, debido a las herramientas que en esas se proporcionan, lamentablemente no siempre son usa- das correctamente, como es común en cualquier obje- to, tales como aquellos que son adaptados para fines bélicos y que proporcionan innumerables y graves consecuencias en la sociedad. Cabe destacar que las desventajas de las redes socia- les existen, tal como el hecho, del uso excesivo de las mismas, que tiene por consecuencia pérdida de tiempo o bien una actividad que no es realmente productiva. Para el caso del robo de identidad, al ser usuario se debe considerar aquellos datos que son publicados
  • 119.
    102 ya que puedenser mal utilizados, y que producto esa acción terminarán por dañar la vida del dueño de la cuenta hackeada. En el aspecto del acoso que se sufre en redes sociales, este se presenta principalmente por la falta de comu- nicación, entre la víctima y su familia, lo cual evitaría las horribles consecuencias, tales como el suicidio, se- cuestro, trata de personas y explotación sexual. Tam- bién debemos de hacer notar que la forma en la que se desarrolla la sociedad está vinculada con la interac- ción de las personas, si se lleva a cabo la manipula- ción de palabra que para un grupo de personas, es de identificación pero que para la mayoría es motivo de confusión, termina por romper los lazos generales de comunicación escrita o en ocasiones hablada. Recordando que la naturaleza nos proporciona sufi- cientes herramientas para desarrollarnos libremente y las necesidades propias de la sociedad conllevan a la creación de cierto tipo de elementos que generen una vida cómoda, pero que el mal uso de las mismas puede ocasionar cierto tipo de incomodidad. Notando que todo es relativo, en algo tan ventajoso es posible (bajo ciertas condiciones) hallar sus des- ventajas. 4.-REFERENCIAS BIBLIOGRAFICAS Autor Desconocido. (2017). Las redes sociales más usadas en 2017. Recuperado de https://www. multiplicalia.com/redes-sociales-mas-usa- das-2017/ Autor Desconocido. (2017). 5 Riesgos en las redes sociales para niños y jóvenes. Recuperado de https:// www.unionguanajuato.mx/ Autor Desconocido. (2012). Tipo de redes sociales Recuperado de: http://www.tiposde.org/in- ternet/87-tipos-de-redes-sociales/ Autor Desconocido. (2013) Robo de Identidad en las Redes Sociales Recuperado de: http:// orientauin.tumblr.com/post/44316171512/ robo-de-identidad-en-las-redes-sociales Arvidson, Erik. (2011). Problemas de robo de iden- tidad en Facebook. Recuperado de: http:// www.ehowenespanol.com/problemas-ro- bo-identidad-facebook-info_279805/ Belmontes, J. (2011).  Manténgase seguro de las redes sociales. Por tu seguridad, Gobierno que tra- baja y logra en grande. Recuperado de: http:// portal2.edomex.gob.mx/idcprod/groups/ public/documents/edomex_archivo/recono- cer_pdf_seg124.pdf Casas, Ximena. (2014). Adolescentes en riesgo: el 40% comparte datos con desconocidos por las redes sociales. Recuperado de: https:// www.cronista.com/negocios/Adolescen- tes-en-riesgo-el-40-comparte-datos-con-des- c o n o c i d o s - p o r - l a s - r e d e s - s o c i a - les-20140331-0042.html Covelli, Monica. (2016). Uso adecuado de las redes sociales y el internet. Recuperado de:http:// www.lasallebga.edu.co/web/index.php/pu- blicaciones/157-uso-adecuado-de-las-re- des-sociales-y-el-internet Del Rio, Patricia. (2011). Uso y abuso de la ortogra- fía en las redes sociales según dice la real academia española. Recuperado de: http:// radio.rpp.com.pe/letraseneltiempo/uso-y- abuso-de-la-ortografia-en-las-redes-socia- les%E2%80%A6-%C2%BFque-dice-la-re- al-academia-de-la-lengua-espanola/ Doug, Gross. (2014). 4 de cada 10 personas en in- ternet han sufrido acoso: encuesta. Re- cuperado de: http://mexico.cnn.com/ tecnologia/2014/10/26/4-de-cada-10-perso- nas-en-internet-han-sufrido-acoso-encuesta López, José. (2017). Las redes sociales en números: WhatsApp, Facebook, Instagram y Twitter. Recuperado de: https://blogthinkbig.com/ las-redes-sociales-en-numeros-whatsapp-fa- cebook-instagram-y-twitter Sanchez Alejo O. A. (2009). Las redes sociales en la actualidad. Recuperado de http://www. monografias.com/trabajos-pdf5/redes-so- ciales-actualidad/redes-sociales-actualidad. shtml/ Sophos (2007) El 41% de los usuarios de Facebook revela información personal a cualquiera Recuperado de: https://www.sophos.com/ es-es/press-office/press-releases/2007/08/fa- cebook.aspx Cruz,Marcia.(2015).LasRedesSocialesunacausapara el bajo rendimiento escolar. Recuperado de: http://www.monografias.com/trabajos106/ redes-sociales-causa-rendimiento-escolar/ redes-sociales-causa-rendimiento-escolar. shtml#ixzz4x359moDb Goujon, André. (2013). Grooming, el 68,3% de los encuestados cree que es una amena- za muy frecuente. Recuperado de: https:// www.welivesecurity.com/la-es/2013/03/13/ grooming-683-ncuestados-cree-amena- za-muy-frecuente
  • 120.
    103 LA ROBÓTICA REVOLUCIONANDOAL MUNDO O LA HUMANIDAD REVOLUCIONANDO AL MUNDO Alarcon Aruquipa Andony Renan, Condori Quispe Miguel Angel Andonyaa@gmail.com, tsintech123@gmail.com Universidad Mayor de San Andrés Carrera de Informática Gramática Española RESUMEN: Con el pasar de los años la ciencia que estudia la ro- bótica ha ido evolucionando junto a la humanidad, la historia relata que desde tiempos que no creeríamos los robots han sido una idea no impulsada, en la era contemporánea debido a la revolución industrial, nos dimos cuenta que era necesario una ayuda extra a la mano humana, debido a este pensamiento la automa- tización de tareas del hombre la robótica y sus fun- ciones se han desarrollado a niveles increíbles, a esta ciencia se le suman sus ventajas y desventajas que dan que pensar a nuestras generaciones, ya que no sola- mente está en juego nuestro futuro si no el de nuestros sucesores. Palabras Clave: Inteligencia, robótica, robot, huma- nidad, tecnología. ABSTRACT: Over the years the science that studies robotics has evolved along with humanity, history tells us that since times we would not believe robots have been an idea not driven, in the contemporary era due to the industrial revolution, we gave ourselves account that it was necessary an extra help to the human hand, due to this thought the automation of man’s tasks robotics and its functions have developed to incredible levels, to this science are added their advantages and disad- vantages that give our thinking to our generations, since not only our future is at stake but that of our successors. Keywords: Intellingence, robotic, robot, humanity, tecnology. 1. INTRODUCCIÓN La robótica tomó sus inicios en el Siglo XVIII cuan- do Joseph Jacquard inventó la primera máquina textil programable con tarjetas perforadas en 1801, poste- riormente esta idea sería impulsada gracias a la revo- lución industrial. A partir de ese instante, la idea ha ido evolucionando con el pasar de los años y se han ido plasmando en libros, se ha dicho que durante estos siglos XVII y XVIII muñecas mecánicas ingeniosas con algunas características de robots se fabricaron. Una gran in- terrogativa que ha nacido con la innovación de estos sistemas robóticos con el pasar del tiempo es: La ro- bótica está revolucionando al mundo o la humanidad está revolucionando al mundo. Esta pregunta nace de la inseguridad de algunas per- sonas que ya sea por diferentes motivos no se sienten seguros con la idea de que un robot este a tu servicio, lo que piensan muchas personas es el remplazo de nuestra raza. 2. DESARROLLO Para darnos un mayor entendimiento del gran avance de la robótica, sus ventajas y desventajas veremos la historia y los usos que le damos en la actualidad. 1.1. ENTENDAMOS LA ROBÓTICA La robótica, una rama de la tecnología que se dedica al diseño, construcción, operación, disposición estruc- tural y aplicación de robots. En esta rama se combinan diversas disciplinas de estudio como: la mecánica, la electrónica, la informática, la inteligencia artificial y la física. Yasí dependiendo de la función de dicho robot se variarán las disciplinas empleadas en la creación de este “robot”. 1.2. LEYES DE LA ROBÓTICA Escrita por Isaac Asimos en 1942, y reutilizada mu- chas veces en los universos de sus obras escritas, estas normas o leyes de la robótica están inscritas en todo aparato robótico de dichas obras, el hecho de estar es- critas en libros de ciencia ficción no le quita la impor- tancia y/o coherencia de estas leyes. Las cuales son:
  • 121.
    104 • Un robotno puede dañar a un ser humano o, por inacción, permitir que un ser humano sufra daño. • Un robot debe cumplir las órdenes de los seres hu- manos, excepto si dichas ordenes entran en con- flicto con la primera ley. • Un robot debe proteger su propia existencia en la medida en que ello no entre en conflicto con la pri- mera o la segunda ley. 1.3. CLASIFICACIÓN DE LA ROBÓTICA Se pueden clasificar por dos maneras por generacio- nes cronológicas y por su arquitectura. 1.3.1. SEGÚN SU CRONOLOGIA 1.2.0.1 1° GENERACIÓN Manipuladores. Son sistemas mecánicos multifun- cionales con un sencillo sistema de control, bien manual, de secuencia fija o de secuencia variable. 1.2.0.2. 2° GENERACIÓN Robots de aprendizaje. Repiten una secuencia de mo- vimientos que ha sido ejecutada previamente por un operador humano. El modo de hacerlo es a través de un dispositivo mecánico. El operador realiza los mo- vimientos requeridos mientras el robot le sigue y los memoriza. 1.2.0.3. 3° GENERACIÓN Robots con control sensor izado. El controlador es una computadora que ejecuta las órdenes de un programa y las envía al manipulador para que realice los movi- mientos necesarios. 1.2.0.4. 4° GENERACIÓN Robots inteligentes. Son similares a los anteriores, pero además poseen sensores que envían información a la computadora de control sobre el estado del proce- so. Esto permite una toma inteligente de decisiones y el control del proceso en tiempo real. 1.2.1. POR SU ARQUITECTURA Se defina a la arquitectura por las características físicas del robot, su función no influye en esta clasificación, sin embargo, debido a sus únicas características habrá tareas y/o funciones que no todas podrán cumplir. 1.2.1.1. POLIARTICULADOS En este grupo están los Robots de muy diversa forma y configuración cuya característica común es la de ser básicamente sedentarios (aunque excepcionalmente pueden ser guiados para efectuar desplazamientos li- mitados) y estar estructurados para mover sus elemen- tos terminales en un determinado espacio de trabajo según uno o más sistemas de coordenadas y con un número limitado de grados de libertad”. En este grupo se encuentran los manipuladores, los Robots indus- triales, los Robots cartesianos y se emplean cuando es preciso abarcar una zona de trabajo relativamente amplia o alargada, actuar sobre objetos con un plano de simetría vertical. 1.2.1.2. MÓVILES Son Robots con grandes capacidades de desplaza- miento, basadas en carros o plataformas y dotados de un sistema locomotor de tipo rodante. Siguen su ca- mino por telemando o guiándose por la información recibida de su entorno a través de sus sensores. Estos Robots aseguran el transporte de piezas de un punto a otro de una cadena de fabricación. Guiados mediante pistas materializadas a través de la radiación electro- magnética de circuitos empotrados en el suelo, o a tra- vés de bandas detectadas fotoeléctricamente, pueden incluso llegar a sortear obstáculos 1.2.1.3. ANDROIDES Son Robots que intentan reproducir total o parcial- mente la forma y el comportamiento cinemática del ser humano. Actualmente los androides son todavía dispositivos muy poco evolucionados y sin utilidad práctica, y destinados, fundamentalmente, al estudio y experimentación. Uno de los aspectos más complejos de estos Robots, y sobre el que se centra la mayoría de los trabajos, es el de la locomoción bípeda. En este caso, el principal problema es controlar dinámica y coordinadamente en el tiempo real el proceso y man- tener simultáneamente el equilibrio del Robot.
  • 122.
    105 1.2.1.4. ZOOMÓRFICOS Los Robotszoomórficos, que considerados en sentido no restrictivo podrían incluir también a los androides, constituyen una clase caracterizada principalmente por sus sistemas de locomoción que imitan a los diver- sos seres vivos. A pesar de la disparidad morfológica de sus posibles sistemas de locomoción es convenien- te agrupar a los Robots zoomórficos en dos categorías principales: caminadores y no caminadores. El grupo de los Robots zoomórficos no caminadores está muy poco evolucionado. Los experimentados efectuados en Japón basados en segmentos cilíndricos biselados acoplados axialmente entre sí y dotados de un movi- miento relativo de rotación. Los Robots zoomórficos caminadores multimedios son muy numerosos y están siendo experimentados en diversos laboratorios con vistas al desarrollo posterior de verdaderos vehículos terrenos, piloteando o autónomos, capaces de evolu- cionar en superficies muy accidentadas. Las aplicacio- nes de estos Robots serán interesantes en el campo de la exploración espacial y en el estudio de los volcanes. 1.2.1.5. HÍBRIDOS Estos Robots corresponden a aquellos de difícil cla- sificación cuya estructura se sitúa en combinación con alguna de las anteriores ya expuestas, bien sea por conjunción o por yuxtaposición. Por ejemplo, un dispositivo segmentado articulado y con ruedas, es al mismo tiempo uno de los atributos de los Robots móviles y de los Robots zoomórficos. De igual forma pueden considerarse híbridos algunos Robots forma- dos por la yuxtaposición de un cuerpo formado por un carro móvil y de un brazo semejante al de los Robots industriales. En parecida situación se encuentran al- gunos. 1.3. LA ROBÓTICA Y SUS APLICACIONES La historia de la robótica ha estado unida a la cons- trucción de “artefactos”, que trataban de materializar el deseo humano de crear seres semejantes a nosotros que nos descargasen del trabajo. 1.4. LEGUAJE DE PROGRAMACIÓN EN LA ROBÓTICA Un gran obstáculo en la utilización de los manipu- ladores como máquinas de uso general es la falta de comunicación eficaz y apropiada entre el usuario y el sistema robótico, de forma que éste pueda dirigir al manipulador para cumplir una tarea dada. Hay algu- nas formas de comunicarse con un robot, y los tres grandes enfoques para lograrlo son: el reconocimiento de palabra discreta, enseñar y reproducir y lenguajes de programación de alto nivel. 1.5. LA INTELIGENCIA DEL ROBOT El problema básico en la robótica es la planificación de movimiento para resolver alguna tarea pre especifi- cada, y luego controlar al robot cuando ejecuta las ór- denes necesarias para conseguir esas acciones.La in- vestigación sobre resolución de problemas con robots ha conducido a muchas ideas acerca de los sistemas para la resolución de problemas en inteligencia arti- ficial. La discusión hace énfasis en la resolución del problema o aspectos de planificación de un robot. Un planificador de robot intenta encontrar una trayectoria desde nuestro mundo del robot inicial hasta un mundo del robot final. El camino consiste en una secuencia de operaciones que se consideran primitivas para el siste- ma. Una solución a un problema podría ser la base de una secuencia correspondiente de acciones físicas en el mundo físico. 1.6. LA ROBÓTICA Y SUS USOS 1.6.1. LA ROBÓTICA Y LA INDUSTRIA Los robots son utilizados para una variedad de proce- sos industriales como, por ejemplo: la soldadura de punto y soldadura de arco, pinturas spray, transporta- ción de materiales, moldeado en la industria plástica, maquinas-herramientas, y varias más. 1.6.2. TRANSFERENCIA DE MATERIAL Son operadores en las cual es el objetivo primario es mover una pieza de un lugar a otra. Se suelen con- siderar entre las operaciones más sencillas o directas de realizar por estos sistemas. Las aplicaciones nor- malmente un robot poco sofisticado y con equipos de asistencia típicamente simples. 1.6.3. CARGA DE MÁQUINAS El robot debe cargar la pieza de trabajo en bruto en las máquinas, pero la pieza se extrae mediante algún otro medio. En una operación de prensado, el robot se puede programar para cargar láminas de metal en la prensa y las piezas acabadas se permite que caigan
  • 123.
    106 fuera de laprensa por gravedad. 1.6.4. DESCARGA DE MÁQUINAS La máquina produce piezas acabadas a partir de ma- teriales en bruto que se cargar directamente en la ma- quina sin ayuda externa. El robot descarga la pieza de la máquina. Ejemplos de esta categoría son las aplica- ciones de fundición de troquel y moldeado plástico. 1.6.5. OPERADORES DE PROCESAMIENTO Existe una gran clase de aplicaciones en las cuales el robot realmente efectúa trabajo sobre piezas. Este trabajo casi siempre necesitaba que efecto final del robot sea una herramienta en lugar de una pinza. Por tanto, la utilización de una herramienta para efectuar el trabajo es una característica distinta de este grupo de aplicaciones. El tipo de herramienta depende de la operación que de procesamiento que se realiza. 1.6.6. EDUCACIÓN Los robots están apareciendo en los salones de clases de tres formas distintas. Primero, los programas educacionales utilizan la si- mulación de control de robots como un medio de en- señanza. Un ejemplo palpable es la utilización del lenguaje de programación del robot Karel, un subconjunto de Pas- cal; la máquina es utilizada para la introducción de a la enseñanza de la programación. El segundo, y de uso más común, es el uso del robot ´tortuga´ en conjunción con el lenguaje LOGO para enseñar ciencias computacionales. LOGO fue creado con la intención de proporcionar al estudiante un me- dio natural y divertido en el aprendizaje de las mate- máticas. En tercer lugar, está el uso de los robots en los salones de clases. Una serie de manipulaciones de bajo costo, robots móviles, y sistemas complejos han sido desa- rrollados para la utilización en los laboratorios edu- cacionales. Debido a su bajo costo, muchos de estos sistemas no poseen fiabilidad, no presentan sensores y en su mayoría carecen de software. 1.6.7. MILITAR La robótica ha producido muchos avances militares en cuanto a tecnología de combate se refiere. Actualmen- te el ejercito de los Estados Unidos utiliza una serie de robots terrestres que están equipados con equipos GPS, cámaras láser y de visión nocturna, y radares, y tienen la capacidad de moverse sobre terrenos muy di- fíciles. Su tarea, por el momento, es ayudar en la bús- queda de sobrevivientes, reconocer terrenos y testear armas químicas. Sin embargo, hay algunos prototipos que ya tienen la capacidad de evaluar juicios instantá- neos y de actuar conforme a ellos, es decir; crear un plan. En la aeronáutica militar se ha implementado, hace unos años, aviones espías que son utilizados para reconocimientos en zonas urbanas. Tienen la habili- dad de reconocer como objetivos concretos, incluso entre una multitud. Son muy útiles en ese campo así como en la persecución de objetivos en tiempo real .La Marina tampoco se ha quedado atrás, y cuenta en sus filas con robots anfibios autómatas diseñados para sumergirse a grandes profundidades. Se los utiliza en busca de minas de mar y posibles barcos enemigos; tiene que emerger para transmitir la información vía satélite, pero permanecer durante un mes en el océano sin la necesidad de ser realimentado con energía .Otro avance en el campo militar son los robots que detectaron y desactivan minas terrestres. 1.7. VENTAJAS Las ventajas de la sustitución humana por el robot son eminentemente inmensas e infinitas. Ya que sin la ayuda de esta el ser humano no hubiera sido capaz de evolucionar hasta el punto que hemos llegado ahora. • Gracias a la robótica el ser humano ha po- dido dedicar su tiempo a mejora la calidad de vida al aplicarla constantemente y sustituyéndose a sí mismo en labores repetitivas y agotadoras. • Los robots permiten a los investigadores a entender algunas funciones imposibles de desentrañar directamente a través de la experimentación animal. • Son manipuladores multifuncional reprogra- mable con varios grados de libertad, capaz de manipu- lar materias, piezas, herramientas o dispositivos espe- ciales según trayectorias variables programadas para realizar tareas diversas. • Se utiliza cualquier dispositivo mecánico ca- paz de reproducir los movimientos humanos para la manipulación de objetos.
  • 124.
    107 1.8. DESVENTAJAS • Elrobot esta específicamente diseñado para sustituir la labor humana y de esta manera mejorarla o simplemente igualar su capacidad. Aunque si es muy cierto que la robótica puede crear más empleos, tam- bién puede quitarlos. • Actualmente se puede observar que el des- empleo por la sustitución humana por los robots ha sido mayor que el empleo que esta ha creado. Esto se debe mayormente a que muchas generaciones pasa- das no pudieron competir ante el potencial del robot, por esto mimo fueron sustituidos y expulsados de esta área de trabajo específico. • Estas computadoras pensantes solo se consi- deran como una base de una especie de robots inteli- gentes capaces de crear copias de ellos mismo. • El costo de un robot permanece constante con baja reducción. • Requieren gran capital al instalarle que se de- precia con los años y el recurso humano que cuesta el tiempo trabajando. 1.9. NOTICIAS EN LAACTUALIDAD 1.9.1. ASÍ ES JIA JIA, LA PRIMERA ROBOT HUMANOIDE DE CHINA En China siguen demostrando su potencial a nivel de ciencia y tecnología, al estrenar un robot interactivo con rasgos bastante similares a los de un ser humano común y corriente, denominado Jia Jia. Figura 1. Robot Jia Jia. Fuente: (Anónimo, 2011) 1.9.2. GEMINOIDS, TU GEMELO ROBOT El caso más sonado o conocido es el de los “Gemi- noids”, un trabajo del profesor Hiroshi Ishiguro, di- rector del departamento de robótica de la Universidad de Osaka. A muchos os sonarán sus robots nada más verlos, la mayoría de ellos comparten la misión de asemejarse lo más posible a los humanos, tanto en forma como en expresiones, además de jugar con la interacción con nosotros. Figura 2. Geminoids. Fuente: (Anónimo, 2016) 2. CONCLUSIONES Las nuevas tecnologías día a día han venido masifi- cándose en nuestra sociedad en el ámbito educativo y laboral, lo cual ha generado un impacto beneficio- so para facilitar el quehacer cotidiano del ser humano reflejado en uno de los ejemplos más sencillos como lo es, el uso del computador. En este sentido, las he- rramientas tecnológicas permiten al hombre tener una visión diferente del mundo, ya que logran de una for- ma innovadora y práctica analizar, diseñar y resolver problemas presentes en el entorno. La era de la robótica ha cambiado por completo a la humanidad, pensar que estamos a unos cuantos pasos de crear vida inteligente artificial que nos ayude a re- solver trabajos o tareas de la vida diaria, da un poco de escalofríos con una mitad de curiosidad, de saber cómo se comportarán estos nuevos seres en nuestro planeta o qué pensarán de nosotros, no podemos evitar esta curiosidad. En fin, respuesta a la interrogante inicial de: “La ro- bótica está revolucionando al mundo o la humanidad está revolucionando al mundo”, con todo lo descrito anteriormente, podemos decir que la humanidad está revolucionando al mundo entero con estas nuevas pro- puestas de automatización, sin embargo, podría atre- verme a decir que en un futuro tal vez sea de diferente forma.
  • 125.
    108 3. REFERENCIAS BIBLIOGRÁFICAS Anónimo.(10 de Octubre de 2017). El mundo de la robótica. Recuperado el 2017, de El mundo de la robótica: http://roboticworld.ucoz.net/ index/robot1/0-8 Anónimo. (10 de Octubre de 2017). EL PAÍS. Obtenido de EL PAÍS: https://el- pais.com/elpais/2017/08/24/cien- cia/1503574908_187790.html Anónimo. (10 de Octubre de 2017). RPP Noticias. Obtenido de http://rpp.pe/mundo/china/asi- es-jia-jia-la-primera-robot-humanoide-de- china-noticia-1022532 Anónimo. (10 de Octubre de 2017). UM. Obtenido de http://www.um.es/docencia/barzana/ IATS/Iats09.html Caliche022. (Octubre de 10 de 2017). Taringa. Ob- tenido de https://www.taringa.net/posts/ apuntes-y-monografias/10483611/La-Robo- tica-y-sus-usos.html Guillén, B. (10 de Octubre de 2017). EL PAÍS. Obtenido de https://elpais. com/tecnologia/2016/09/14/actuali- dad/1473844821_428161.html Lala. (10 de Octubre de 2017). kouq. Obtenido de https://kouq.wordpress.com/2011/02/20/ aplicacion/ Martínez, Y. (10 de Octubre de 2017). Tendencias 21. Obtenido de http://www.tendencias21. net/La-Informatica-Afectiva-promete-ro- bots-y-ordenadores-cada-vez-mas-huma- nos_a675.html puerto, K. (10 de Octubre de 2017). Xataka. Obteni- do de https://www.xataka.com/robotica-e-ia/ erica-es-el-ultimo-robot-japones-con-aspec- to-humano-nos-imita-conversando Puerto, K. (10 de Octubre de 2017). Xataka. Obteni- do de https://www.xataka.com/robotica-e-ia/ que-robot-te-causa-mas-temor-el-test-del- valle-inquietante Robótica. (10 de Octubre de 2017). Blogspot. Obtenido de http://jodaniel95.blogspot. com/2011/03/clasificacion-de-la-robotica. html Sanchez, O. (10 de Octubre de 2017). Blogspot. Obtenido de http://computacionrobotica. blogspot.com
  • 126.
    109 LA ROBOTICA UNAALTERNATIVAALAS LIMITACIONES HUMANAS Gutierrez Condori Ruben Severo, Jira Ramos Jasmanny, Osco Gutierrez Ronald Charli rubeninf2017@hotmail.com, jassmono@hotmail.com, rronaldgutierrezz@gmail.com, Universidad Mayor de San Andres Carrera de Informática Gramática Española RESUMEN En el artículo se presenta el análisis de la implemen- tación de la robótica en diferentes ámbitos como ser para la educación la salud para esto se realiza la cons- trucción de robots para diferentes ámbitos como men- cionamos anteriormente y el otro ámbito seria la utili- zación de la robótica como un medio que motiva y da un poco más de sentido a la investigación y construc- ción de robots en diferentes áreas, en el campo de la medicina podemos mencionar que trata con más deta- lle la prótesis que usan las personas cuando perdieron alguna parte de su cuerpo que sea reemplazable, en todo este tiempo se ha proporcionado al ser humano extremidades completamente enteras que cada día la ciencia se va perfeccionando ya que la ciencia nunca se detendrá y en el área de la educación en el de fo- mentar a los niños el interés por la ciencia es por eso que se mostrara los detalles fabulosos que nos da la ciencia y lo grandioso que puede ser la investigación. Palabras clave: Construcción, investigación, inte- ligencia artificial, perfeccionamiento, reemplazable, robótica. ABSTRACT The article presents the analysis of the implementa- tion of robotics in different areas such as being for health education for this is done building robots for different areas as we mentioned above and the other field would be the use of robotics as a means which motivates and gives a little more meaning to the re- search and construction of robots in different areas, in the field of medicine we can mention that it deals in more detail the prosthesis that people use when they lost some part of their body that is replaceable, in all this time it has been provided to human beings com- pletely whole limbs that every day science is being perfectedsince science will never stop will stop and in the area of ​​education in that of fostering children’s interest in science is why it will show the fabulous details that science gives us and how great research can be. Keywords: Construction,research,artificial intelli- gence, refinement,replaceable,robotics. 1. INTRODUCCION La robótica siempre ha estado a la investigación y a la mejora de artefactos con la idea de hacer la vida más fácil de las personas. Además de las aplicaciones que puede tener en la industria que ha mejorado las activi- dades como ser los vuelos no tripulados y la creación de robots que simulan las características de una mas- cota o de robots que puedan jugar futbol hoy en día se requiere de movimientos repetitivos y precisos y también de una mayor fuerza para que la producción en las empresas sea de optima utilización y de una am- plia abarcación. Actualmente la robótica se ocupa del diseño, manu- factura, educación que combina las disciplinas como la mecánica, electrónica, información, inteligencia ar- tificial y la ingeniería de control. En el ámbito de la medicina se pude mencionar la disminución de costos x el desplazamiento del médico y la precisión en cuan- to para la medicina se encuentra los robots diseñados para la exploración, diagnostico, cirugía y terapia. Dentro de la inteligencia artificial podemos encontrar a la robótica que pertenece a una rama de la ciberné- tica que estudia el mecanismo de la inteligencia arti- ficial con el fin de poder crear maquinas que puedan pensar por sí solas y puedan hacer la toma de decisio- nes. Por otra parte, los robots pueden presentar su lado negativo como al mal uso de la robótica ya que po- drían llevar a la humanidad a la guerra mundial como lo vemos en los videojuegos. 2. DESARROLLO La robótica educativa se realizó un análisis de la uti- lización en dos tipos como podrían ser los siguientes: robótica en educación y robótica para la educación. El uso que se les da a los robots para el aprendizaje de la robótica.
  • 127.
    110 Figura 1.Robótica educativa. Fuente:(Barrera,2015) 2.1. PROTESIS ROBOTICAS En la actualidad gracias a la robótica existen las prótesisactivas, las cuales por medio de cuerdas o más sofisticadamente, sensores ubicados en laguna parte del cuerpo de la persona permiten mover una mano mecánica con mayor grado de funcionalidad. 2.2. EVOLUCION DE LA ROBOTICA La robótica se encargó de analizar punto a punto las diferentes generaciones de robots a lo largo del tiem- po, sobre el perfeccionamiento y la construcción de desarrollo. 2.2.1. PRIMERA GENERACIÓN Conocidos como manipuladores, son sistemas de con- trol multifuncionales con un manejo sencillo pudien- do ser de manejo manual o variable esos sistemas eran muy simples como ser relojería que permitan mover cajas musicales y los juguetes de cuerda además de la aplicación industrial de tomar y colocar pero que tenían un muy limitado movimiento. Figura 2. Primeros robots. Fuente: (Anónimo, 2013) 2.2.2. SEGUNDA GENERACIÓN En esta generación aparecieron los robots de apren- dizaje que repiten una secuencia de movimientos el modo de que el robot llegue a cabo hacer esto es me- diante un dispositivo mecánico esos robots imitaban y memorizaban los pasos de la persona. En esta generación se utilizaron a los robots en la in- dustria automotriz, soldadura y pintado con spray. Figura 3.Máquinas industriales. Fuente: (Anónimo, 2014) 2.2.3. TERCERA GENERACIÓN En esta generación se implementó el control senso- rial la cual se podía acceder desde una computadora la cual ejecutaba las órdenes de un programa que las envía para hacer la manipulación de movimientos. De esta manera se utilizó las computadoras para la estra- tegia de control y algún conocimiento del ambiente lo- cal. A partir de esta generación se implementó los len- guajes de programación para escribir los programas de control a esta estrategia se denominó ciclo cerrado. Figura 4.Dispositivos externos. Fuente:(Anónimo., 2012)
  • 128.
    111 2.2.4. CUARTA GENERACIÓN Denominadatambién la era de los robots inteligentes similar a tercera generación solo que los robots de esta generación poseen sensores que envían información a una computadora de control ya que permite al robot una toma de inteligentes decisiones con el control de proceso en un tiempo muy real. Aparte de que tienen muchas más extensiones senso- riales para poder comprender mejor sus acciones. Tie- ne un conocimiento difuso dirigido por expectativas que mejoran el desempeño del sistema. 2.3.ROBOTICA EN LA EDUCACION La robótica educativa se ha desarrollado al pasar de los tiempos gracias a ella se ha podido dar solución a muchos problemas como en el campo de ciencia y tecnología, ciencias naturales, física, matemáticas y la física. En 1975 apareció el primer sistema automatizado para un laboratorio de psicología. De este término emer- gió el tema encargado robot que fue un diseño para la enseñanza de estudiantes de nivel básico secunda- rio y universitario y fue creciendo tanto, así como in- dustrias LEGO diseñaron los primeros kids robóticos para la enseñanza de jóvenes y niños. Este fue un incentivo para que los jóvenes de hoy en día se interesen más en el desarrollo y progreso tecno- lógico y los amplios temas que puede tener la robótica por lo cual este es un empujón para que los jóvenes desde corta edad tengan interés por la ciencia y la in- geniería desde sus primeras etapas. La robótica educativa fue definida como una discipli- na que permite diseñar y desarrollar robots educativos. Figura 5.Robótica Educativa Fuente:(Anónimo, 2014) 2.3.1. ROBOTEDUCATIVO AMIBOT Este sistema es un dispositivo programable con un conjunto de sensores de entrada y actuadores de salida que permite tomar señales y el procesar los datos y ejecutar las tareas, a lo largo del tiempo se ha desa- rrollado plataformas educativas denominadas también como AMIBOT. A lo largo del tiempo se realizaron tres bloques bases: • Los actuadores para realizar los desplazamientos del robot en un plano • La implementación de los 4 sensores de AMI- BOT • Procesamiento de interfaz programable llamada NXT Figura 6. Robot educativo amibot Fuente: (Pitti, 2012) 2.3.2. METODOLOGÍA Este es un trabajo de investigación que esta formulada por teorías e hipótesis, esta investigación da ideas de cómo se puede eliminar las dificultades que hay en las escuelas y de ahí que surge la idea de diseñar au- las donde específicamente se implemente “los robots educativos” como instrumentos didácticos que den el conocimiento y aprendizaje de nuevas ideas y nuevos campos de visión. 2.4. HISTORIA:ROBOTICA INDUSTRIAL Para responder a esta cuestionante debemos remontar- nos hasta Marzo de 1938 en donde Meccano Maga- zine publicaba su revista con el título “THE ROBOT GARGANTUA” refiriéndose al invento de BillGri- ffith P. Taylor. Una “grúa robot” que podía apilar au- tomáticamente bloques de madera mediante patrones pre-programados.
  • 129.
    112 Este hecho diosuceso a que en 1954 un hombre lla- mado George Devol solicitara las primeras patentes de robótica en 1954 para que posteriormente en 1956 junto a Joseph F. Engelberge se fundara la primera compañía dedicada a la fabricación de este tipo de má- quinas automatizadas “UNIMATION”. Pero no fue hasta 1960 que consiguieron un contrato con General Motors para instalar un brazo robótico denominado Unimate, en su fábrica de Trenton (Nueva Jersey). La máquina, con un peso de 1.800 kg, fue considerada el primer robot industrial de la historia y su función era la de levantar y apilar grandes piezas de metal ca- liente. Figura 7. Robot gargantua. Fuente: (Anónimo, 2013) Posteriormente en 1968, Engelberger visitó Japón y consiguió firmar acuerdos con Kawasaki para la cons- trucción de robots del tipo Unimate, lo que dio riendas al crecimiento de la robótica en Japón que tuvo como consecuencia directa que Japón adelantara a Estados Unidos gracias a Nissan, que formó la primera aso- ciación robótica del mundo: la Asociación Robótica Industrial de Japón (JIRA) en 1972. El inicio de estos primeros robots que se dedicaban únicamente de transportar objetos de un lugar a otro fueron perfeccionándose cada vez más hasta llegar a un punto en el que hoy en día son indispensables para la industria. Específicamente en el ramo industrial, la robótica puede aplicarse en: trabajos en fundición, soldadura, aplicación de materiales, sellantes y adhesivos, alimentación de máquinas, procesado, corte, montaje, palatización y control de calidad, entre otros tantos. Su éxito en esos trabajos se debe principalmente a una serie de ventajas que la hacen la opción perfecta en la industria: 2.4.1. PRODUCTIVIDAD En nuestros días lanecesidad y demanda de productos es bastante grande, por lo que una empresa la cual no cuente conrobots que haganmás sencillos y rápidos los procesos industriales, tendría serios problemas para satisfacer la gran demanda de insumos en el mercado. Figura 8. Robot Unimate Fuente: (Greel, 2015) 2.4.2. Velocidad La robótica brinda la capacidad de reducir de forma importante el tiempo requerido para llevar a cabo una tarea específica, por lo se minimizan también los gastos propios de la producción. 2.4.3. Seguridad Cuando ciertas  tareas presentan algún grado de riesgo, por ejemplo, en el caso de las empresas siderúrgicas donde  se trabaja con metales fundidos a altísimas temperaturas, se utilizan robots que sean capaces de llevar a cabo las funciones que una persona no puede realizar por su propia seguridad. Los robots industriales son llamados también brazos de robot gracias al increíble parecido que tienen con lasextremidades superiores del cuerpo humano, tanto en diseño como en funcionalidad.
  • 130.
    113 En la maquinariarobótica, el brazo y antebrazo son conocidos comoenlaces o eslabones, los cuales son unidos mediante las juntas o articulaciones, de modo que el sistema pueda realizar movimientos deslizantes de forma lineal o rotacional. Para que el robot pueda llevar a cabo la función para la que está diseñado, debe contar en el extremo con una herramienta o pinza, de modo que pueda sujetar, soldar, pintar, y cualquier otra tarea que la pieza requiera. Figura 9. Partes de un brazo robótico. Fuente:(Anónimo., 2014) 2.4.4. Más allá de la producción en serie Sectores como el del automóvil o el de la manufactura han sido desde hace más de 30 años habituales usuarios de la robótica industrial. Esto gracias a la buena adaptación que ha tenido el robot industrial en las tareas repetitivas dentro de entornos estructurados. Sin embargo, hay otros sectores en donde no es necesario obtener un nivel alto de productividad, en donde las tareas no son repetitivas, y donde no existe un conocimiento a detalle del entorno. Entre dichos sectores se pueden mencionar laindustria nuclear y la construcción. 3. CONCLUSIONES La robótica supone avances muy importantes para conseguir un mejor avance en la ciencia como ser en el campo de la medicina, la educación y las industrias gracias a la robótica las intervenciones en el campo de la medicina serán más perfectas en el campo del estudio tendremos robots que incluso tengan la capa- cidad de enseñar como también el de aprender y en el campo industrial en el cual ya no dependerán de usuarios que todo los procesos se harán más eficaces y sin ningún reclamo en conclusión estas operaciones nos darán mayor beneficio aunque el desarrollo de la robótica dejara a muchas personas sin trabajo ya que las empresas optaran por la automatización. 4. REFERENCIAS BIBLIOGRÁFICAS Anonimo. (s.f.). Wikipedia. Obtenido de http//es.wiki- pedia.org/wiki/Robótica Boden,M.(1995).AI’sHalf‐Century.American. Asso- ciation for Artificial Intelligence, AI Maga- zine, Winter, vol.16,N° 4, p. 96/9. Bogner, M.; Maletic, J. y Franklin, S. (2000): ConAg:AReusable Framework for Develop- ing“Conscious” SoftwareAgents. Brooks,R.(1998). ProspectsforHumanIntelligencefor, Humanoid, Robots.MIT, Laboratorio deInte- ligenciaArtificial. Bermúdez G. y Pinto M. (2007). Determinación de parámetros de un robot móvil de Lego Mindstorms. Ingeniería, Investigación y De- sarrollo I2+D. Vol. 4, pp. 7-13. Dario, P.(2005). Robot, ovverotraillusionierealtà. Re- vista Media Duemila, Número EspecialRo- bótica, Julio/Agosto, p. 22/5. FernándezLeón,J.(2004). RobóticaEvolutivaylapróxi- mageneraciónderobotsautónomos.WCA- FR2004 (Workshop del II Campeonato Ar- gentino deFútboldeRobots), 9‐11 dejunio. Florian,R.(2003). Autonomous,artificialintelligenta- gents. TechnicalReportConeural, 4 de febre- ro, edición digital. Kovács,A.yUeno,H.(2005). CognitiveSubstrates: What They Are and What They Learn. Página personal del autor. 4 de marzo. Mataric,M.(2002):SituatedRobotics. Encyclopedia of Cognitive Science, Nature Publishers Group, Macmillian Reference Ltd. Velásquez-navarro,j.j. (2008). Ambientes lúdicos de aprendizaje diseño y operación. México: Editorial Trillas Taylor, G. P. (19 de 03 de 2017). Cybemeticzoo. Obtenido de http://cyberneticzoo.com/ robots/1937-the-robot-gargantua-bill-griffi- th-p-taylor-australiancanadian/
  • 131.
    114 MECÁNICA COMPUTACIONAL ENLA MEDICINA VETERINARIA Pomacosi Quispe Richard, Rojas Medina Eddy Dorian, Huaranca Antiñapa Juan Carlos youtuberick@outlook.com, eddydorian@gmail.com, jkarlos@gmail.com Universidad Mayor de San Andrés Carrera de Informática Gramática Española RESUMEN La mecánica computacional intenta de predecir la mecánica de los seres vivos, por lo tanto nos ayuda a entender el motor de los organismos, caracterizar el comportamiento de los tejidos y órganos y prevenir de esta manera métodos para la intervención artificial, por medio de la simulación computacional que mo- dela los procesos de respuesta de las células tejidos y órganos ante estímulos externos e internos, mediante un modelo matemático del comportamiento que se basa en reglas o patrones que se siguen, muchas veces basadas en la metodología de prueba y error. En el presente trabajo se lleva a cabo una revisión biblio- gráfica sobre esta nueva área de conocimiento en la teoría biológica y computacional, para la predicción del comportamiento de los tejidos vivos. Palabras claves: biomecánica, medicina veterinaria, computacional. ABSTRACT Computational mechanics tries to predict the me- chanics of living beings, therefore, it helps us to un- derstand the motor of the entities, to characterize the behavior of the tissues and organs and thus to prevent methods for artificial intervention, through the com- putational simulation that models the response pro- cesses of tissues and organs to external and internal stimuli, through a mathematical model of behavior that is based on rules or patterns that are followed, often based on the methodology of trial and error. In the present work, a bibliographic review was carried out on this new area of ​​knowledge in the biological and computational theory, for the prediction of the be- havior of living tissues Keywords: biomechanics, veterinary medicine, com- putational. 1. INTRODUCCION La dinámica de la fisiología animal está descrita como un conjunto de mecanismos que interactúan a través de una acción coordinada de cada sistema, órganos y tejidos. Actualmente existen muchos modelos que describen la dinámica del movimiento de diferentes órganos mediante algoritmos computacionales, este estudio se basa en patrones que se identifican luego de un análisis estadístico sobre grupos poblacionales grandes, aunque los resultados son difícilmente gene- ralizables debido a la variación de estos patrones entre poblaciones, por lo cual es difícil saber si se trata de una fisiología normal o patológica. La biomecánica computacional se refiere a la simulación de estos sis- temas complejos, mediante la utilización de modelos sólidos para simular comportamientos cinemáticos, como modelos de elementos finitos para simular pro- piedades de deformación y resistencia de los tejidos y elementos biológicos. El uso continuo de la simulación en medicina ha per- mitido obtener datos importantes acerca del compor- tamiento biológico, mecánico y químico de órganos y tejidos utilizando la formalización matemática y la consiguiente simulación numérica de procesos bioló- gicos complejos. Distintos problemas de medicina re- lacionados con la cirugía, el trauma y la rehabilitación han sido identificados, conceptualizados y sistemática- mente resueltos numéricamente. 2. DESARROLLO 2.1. COMPORTAMIENTO MECÁNICO DE LOS TEJIDOS En este sector se realizó la revisión de distintas biblio- grafías relevantes acerca de los tejidos vivos, que es la estructura simple que conforman órganos, los cuales se distinguen en tejidos duros y blandos. 2.1.2 TEJIDOS DUROS Son parte de la conformación ósea de los animales, las cuales poseen propiedades mecánicas. Estas es- tructuras a pesar de ser ligeros presentan una gran re- sistencia a la tracción, por ejemplo, los tobillos de un caballo pueden soportar alrededor de 120 kilogramos. El tejido óseo está conformado por componentes in- orgánicos como fosfato y carbonato de calcio, que le
  • 132.
    115 confieren su granresistencia a compresión, también posee componentes orgánicos como colágeno y pro- teínas no colágenas, que constituyen sus propiedades de tracción (Doblare, 2004). Es importante destacar que la estructura de los huesos no es uniforme, siendo un material heterogéneo, poroso y anisótropo, es de- cir tiene distintas propiedades cuando este se examina figura 1. La porosidad ósea tiene también un compor- tamiento mecánico, aunque es muy variable, es decir hay probabilidades de encontrar porosidades muy al- tas o bajas. Actualmente se han desarrollado muchos trabajos que intentan relacionar la mecánica del tejido óseo, la elasticidad y resistencia a la compresión, en otras ocasiones la densidad aparente o la densidad asociado al porcentaje de minerales. Figura 1. Estructura ósea cortical y esponjosa. Fuente: (Doblaré 2004) 2.1.3 TEJIDOS BLANDOS De manera general los tejidos blandos comprenden, un conjunto de elementos orgánicos formados por tejido conjuntivo. Los tendones, vasos sanguíneos, músculos, tejidos grasos y ligamentos pertenecen a este tipo. Generalmente se encuentran reforzados por fibras de colágeno y elastina. La composición de estos depende de su fisiología puesto que las células de un tipo semejante de agru- pan de distinta manera, por ejemplo, los tendones es- tán especializados en la resistencia de tracción puesto que son ricos en fibra y su función está ligada a la dirección del esfuerzo al que se someten, hay otras estructuras como los cartílagos que absorben elásti- camente las fibras de compresión estas son ricas en proteoglicanos. (Doblare, 2004). Entre otras caracte- rísticas estructurales de los tejidos blandos es su dis- tribución por estratos, existen así los tejidos simples, estratificados y pseudoestratificados. Algunas estruc- turas son difícilmente estudiadas desde el punto de la mecánica, puesto que se someten a grandes deforma- ciones como los tendones, por lo cual son práctica- mente incomprensibles debidos a que tiene un amplio rango de deformación. Por otro lado, los cartílagos articulares por ejemplo tienen un comportamiento comprensible, el estudio del comportamiento de este tipo de tejidos permite proporcionar a las articulaciones sinoviales condicio- nes óptimas de lubricación, fricción y desgaste. A la hora de realizar estudios del comportamiento tisular en animales, uno de los mayores problemas que se presentan a la hora de modelar tejidos blandos y su estudio biomecánico es la determinación del estado inicial, debido al estrés del mismo provocado por la manipulación constante, por tal motivo ya existe una pretensión debido a la manipulación del animal reali- zado durante el estudio (Alvarado, sf). 2.2. BIOMECÁNICA CELULAR “La biomecánica celular desarrolla nuevas hipótesis y teorías sobre el efecto tienen sobre el comportamien- to celular. En especial estudia la diferenciación y ex- presión genética, es decir, se estudia la célula a nivel intracelular” (Landinez, 2011). Por ejemplo, Bertaud (2010) ha desarrollado un trabajo sobre el rol de los filamentos en la mecánica de la deformación celular. En los resultados obtenidos hallaron que la deficien- cia en los filamentos de las células puede alterar el comportamiento mecánico de la célula, por lo que se obtiene una respuesta de mayor alcance ante cargas mecánicas. Estos resultados fueron comparados con estudios experimentales en donde se halló una exce- lente correlación con la simulación. Esta disciplina estudia la biomecánica de células, su cómo interactúan entre sí, su movimiento, también a células individuales la forma extracelular en la que se desenvuelven. Es fundamental en procesos a celulares como la migración celular, proliferación y muerte ce- lular y también en procesos biológicos como curación de tejidos, tales como la cicatrización de heridas y otros como la adaptación entres distintos tipos de teji- dos. Gracias a que existen nuevas técnicas hoy en día se pueden hallar una mayor cantidad de datos del inte- rior de una célula se puede definir su comportamiento, funcionamiento y muerte de la célula, con estos datos se han llevado a cabo una mayor cantidad de simula- ciones que muestran la evolución y comportamiento de las células ante la interacción con agentes externos. Otro tipo de simulaciones, de gran interés científico se ha enfocado en la morfogénesis celular. En este sen- tido, Shinbrot (2009) desarrolló modelos de las célu- las con geometría esférica, las cuales pueden migrar e interactuar mediante fuerzas eléctricas para atraer y repelerse entre sí. En este artículo se reporta la morfo- logía y los patrones desarrollados, por lo que se crea
  • 133.
    116 un autoensamble paraformar estructuras únicas de aglomerados celulares. En la figura 2 se pueden ob- servar algunas de las simulaciones llevadas a cabo por el grupo de Shinbrot. Figura 2. Comparación entre simulaciones in vitro y por computador Fuente: (Shinbrot et al, 2009) 2.3. SIMULACIÓN BIOMECÁNICA Un ejemplo de simulación computacional correspon- de a Garcia (2000) al analizar el tipo de tratamiento más adecuado para diferentes tipos de lesiones pélvi- cas. Como objetivo principal era estudiar la movilidad global de la fractura, el tejido fue considerado como elástico lineal, distinguiendo entre hueso cortical y es- ponjoso y utilizando módulos elásticos. A pesar de es- tas simplificaciones se obtuvieron resultados de gran concordancia con la experiencia clínica. Otro ejemplo es el de análisis comparativo entre dife- rentes tipos de fijaciones para el tratamiento de fractu- ras de la extremidad proximal del fémur. El fémur se simulo también como un material elástico lineal ho- mogéneo e isótropo distinguiendo entre hueso cortical y esponjoso figura 3. Se concluyó que las fijaciones intramedulares hacen una mejor estabilización d la zona con fractura. Figura 3. Fijaciones externas en el fémur proximal Fuente: (Doblaré, 2004) En un estudio realizado por Sánchez (2016), para des- cribir y caracterizar las propiedades biomecánicas del hueso de una oveja, que fueron sometidos a ensayos mecánicos clásicos de compresión y flexión, obte- niendo como resultado la mecánica que existe entre huesos de distintas edades, sexo y raza, por ello no se puede asignar un modelo de caracterización para cualquier muestra. 2.4. BIOMECÁNICA COMPUTACIONAL La mecanobiología computacional, determina las re- glas cuantitativas que gobiernan las acciones celulares para su expresión, diferenciación y mantenimiento ante estímulos biológicos y mecánicos, las cuales pue- den simularse mediante métodos numéricos. El pro- cedimiento para hallar dichas reglas es habitualmente mediante el proceso de prueba y error. Los ensayos computacionales se simulan a partir de problemas de valor en el contorno mediante los cua- les, las cargas mecánicas sobre el contorno son trasla- dadas a variables mecánicas locales (deformaciones y tensiones). Del lado biológico, estas variables mecáni- cas locales o biofísicas estimulan la expresión celular para regular, por ejemplo, la composición de la ma- triz y la expresión de sustancias moleculares. Tanto la parte biológica como la mecánica se combinan en un modelo computacional, que considera la aplicación de fuerzas, mecanotransducción, expresión celular, gené- tica y la transformación de las características de la ma- triz extracelular. El método usual de implementación numérica de estos problemas mecanobiológicos es el método de los elementos finitos (Alvarado, sf). “La biomecánica computacional ha servido en múlti- ples áreas de la medicina aplicando la mecánica como herramienta de análisis. Sin embargo, la mayor apli- cación de esta área ha sido solucionar problemas orto- pédicos y entender el sistema musculo esquelético. Es así que la biomecánica se ha dividido específicamen- te en simulación de musculo, tendones y ligamentos (también denominados tejidos blandos) y simulación de hueso (tejido duro)” (Alvarado, 2009). Conforme pasaron los años se desarrollaron nuevas simulaciones computacionales más complejas que in- volucraban mayor cantidad de variables y mayor pre- cisión, como por ejemplo Johnson ( 2004) desarrolló algoritmos numéricos para predecir el comportamien- to de cada organelo celular. La biomecánica computacional con el apoyo de las herramientas de la mecánica clásica como la mecá- nica de fluidos, la mecánica de sólidos y análisis de movimiento han sido utilizados para entender el com- portamiento de diferentes tejidos y órganos, es así como la biomecánica computacional ha sido de ayuda
  • 134.
    117 para el avancede la medicina veterinaria simulando el comportamiento de los tejidos para diagnosticar pro- blemas patológicos. 2.4.1. REMODELACIÓN ÓSEA Hay dos células que son los principales responsables de la remodelación ósea estos son: Los osteoblastos son células que producen tejido óseo. Los osteoclastos son los que eliminan los tejidos óseos desmineralizán- dolos y disolviendo el colágeno. Doblaré (2004) afir- ma “La remodelación ósea se produce por paquetes de células denominadas unidades básicas multicelulares Estos paquetes son los que sustituyen el hueso vie- jo por el nuevo siguiendo un patrón conocido como: Activación-Reabsorción-Formulación”. Las aplica- ciones del modelo de remodelación son consideradas que las simulaciones idénticas a las originales, para obtener un resultado completamente convergente sin oscilaciones incluso a largo plazo. Un mejor entendi- miento de este proceso de remodelación permite es- trategias más exactas y fiables para el diagnóstico y tratamiento. 2.4.2. REMODELACIÓN ÓSEA BASADA EN LA TEORÍA DE LA MECÁNICA DEL DAÑO CONTINUO La biomecánica computacional ha servido en múlti- ples áreas de la medicina aplicando la mecánica como herramienta de análisis. Sin embargo, la mayor apli- cación de esta área ha sido en solucionar problemas ortopédicos y entender el sistema músculo esquelético (Alvarado, sf). “Se podrían utilizar los conceptos de la Mecánica del Daño Anisótropo como marco general para la formu- lación del problema de la remodelación ósea”. (Do- blaré, 2000). Para ello, desde un punto de vista pura- mente matemático se consideran a los poros del tejido óseo como una variable similar al daño de forma que esta puede aumentar formación ósea o disminuir, ge- nerando así la mecánica del daño continuo incluyendo la posibilidad de la disminución del daño. Para la evo- lución del tensor se debe seguir un procedimiento es- tándar llamado teoría del daño continuo que consiste en definición del estímulo mecánico como la variable termodinámica asociada al tensor de remodelación; planteamiento de los criterios que controlan los pro- cesos de formación ósea y reabsorción en función del estímulo mecánico y establecimiento de una regla de flujo asociativo (Doblare, 2004).Con este modelo se verifican muchas propiedades del comportamiento del tejido óseo como la alineación de las microestructuras con las principales direcciones del tensor de compor- tamiento y del tensor de tensiones. Para poder prede- cir la evolución de la distribución de densidades y sus propiedades direccionales se usaron varios ejemplos, el más utilizado es el estudio en 2D del fémur para simular el movimiento de caminar. Esta simulación se inicia con una distribución homogénea de densidades, observando así el cambio que sufre a lo largo del tiem- po figura 4, posteriormente se observa la distribución de densidades que se obtiene después de 300 análisis incrementados. Con esto se puede observar que des- pués de los incrementos este es muy similar al fémur inicial. Figura 4. Distribución de densidades Fuente: (Rueberg et al,s.f.) Este modelo de remodelación también nos permite analizar las alteraciones que sufre el tejido óseo como consecuencia de la transición de cargas que se produ- cen al implantarse una prótesis. 2.4.3. MECANOBIOLOGÍA DE TEJIDOS Y ÓRGANOS En la mecanobiología de tejidos y órganos se han he- cho numerosos aportes sobre el papel que cumple la mecánica y la biología en la morfogénesis, desarrollo y mantenimiento. El proceso mediante el cual se adi- ciona masa se la conoce como crecimiento biológico, durante el transcurso de este proceso se configura la forma y se configuran las dimensiones finales de los órganos y tejidos que están en etapa de desarrollo (La- dinez, 2011). Durante el crecimiento de animal hay dos tipos de tejidos: el tejido duro que se desarrolla mediante la posición de masa sobre la superficie del tejido, o me- diante la formación de un molde de cartílago y poste- riormente remplazo por tejido óseo, esto ocurre en los huesos largos. El comportamiento de los tejidos blandos depende su composición estructural, especialmente del porcenta- je de fibras, sus características y tipo de agrupamien- to. Así, los tejidos especializados en la resistencia a
  • 135.
    118 fuerzas externas, sonricos en fibras y su orientación coincide esencialmente con la dirección del esfuerzo al que están sometidos, mientras que los que absor- ben elásticamente las fuerzas de compresión son ri- cos en proteoglicanos y con las fibras distribuidas en varias direcciones. Ladinez (2011) cita a Kuhl (2003) quienes presentaron un modelo teórico y numérico del crecimiento a partir de un sistema termodinámi- co abierto que tiene aplicación a tejidos duros y para la recuperación de heridas. A partir de las evidencias experimentales, se crearon modelos donde las cargas mecánicas influyen en la formación de tejidos pero que no incluían ecuaciones de reacción-difusión de sustancias químicas. Uno de los temas más importante en la mecanobiología es la mecanotransducción; esta área intenta predecir la deformación y la diferencia- ción de las células en términos cuantitativos, a partir de estímulos biofísicos y mecánicos figura 5. El tejido duro puede desarrollarse mediante la aposi- ción de masa sobre la superficie del tejido (desarrollo intramembranoso), o mediante el proceso de forma- ción de un molde de cartílago y posteriormente el re- emplazo de tejido óseo, como ocurre en el caso de los huesos largos (como el desarrollo de femúr y tibia). “Por el contrario, los tejidos blandos, como los vasos sanguíneos o ligamentos, experimentan un crecimien- to volumétrico que genera tensiones residuales inter- nas sobre los órganos” (Garzon, 2009). Figura 5. Simulación de flujo y deformación de la pared arterial. Fuente: (Garzón, 2009) 2.4.4. MECANOBIOLOGÍA DE PATOLOGÍAS Usando la metodología macanobiológica, se simula- ron patologías, reparación y recuperación de tejidos y órganos. Por ejemplo, en una fractura ósea donde se consideran los estados de crecimiento, diferenciación y regeneración regulados por factores mecánicos. Do- blaré (2014) desarrolló modelos matemáticos y simu- laciones computacionales que determinan los eventos que ocurren durante el proceso de cicatrización de una fractura. Mientras que Isaksson (2006) proponen un modelo geométrico donde se tiene en cuenta la regula- ción mecánica durante una fractura y la cicatrización ósea sin la utilización de agentes externos. En odontología, la mecanobiología ha desarrollado modelos exitosos en el desarrollo de lesiones en la recuperación y cicatrización alrededor de implantes dentales y en el manejo de patologías poco comunes. Por ejemplo, Vanegas (2011) ha desarrollado un mo- delo de integración ósea en la dentadura alrededor de un implante. En dicho artículo se establecen las prin- cipales mecanismos moleculares y celulares que inter- vienen en el proceso de cicatrización de heridas, como la coagulación sanguínea, migración celular para la regeneración y conformación del nuevo tejido funcio- nal que se desarrollará alrededor del implante. En otras investigaciones como el de Cardenas (2010), reporta que en período de recuperacion y cicatrizacion de la ruptura de ligamentosy tendones, este no alcanza las propiedades mecánicas favorables ni las cualida- des del ligamento normal, convirtiendolo en un tejido susceptible a esguinses que pueden tener un periodo de duracion bastante largo. Este fenomeno lo asocia a la baja produccion de colageno y la nueva orientacion aleatoria de las fibras lo que ocasiona una distribucion aonormal de las cargas. Por ello para entender cómo el tejido en reparacion responde a estímulos mecáni- cos, se recurre a la mecanobiología computacional, que describe los procesos de mecanotrasduccion en el tejido. 2.3.5. NUEVAS TENDENCIAS DE LA MECÁ- NICA COMPUTACIONAL Los procesos biológicos presentan una gran variabili- dad estadística, por lo que los modelos mecanobioló- gicos pueden ser, simplemente, estimaciones gruesas de fenómenos que involucran procesos multiples. Este acoplamiento de fenómenos trae consigo el manejo de diferentes escalas de tiempo y espacio, lo cual ha desarrollado nuevas ramas que utilizan modelos que tal vez, especulando, puede ser el siguiente paso en la comprensión de la física, biología y los materiales. Adicionalmente, en los nuevos modelos computacio- nales se deben incluir efectos eléctricos, que en con- junto con la mecánica pueden dar cuenta del compor- tamiento de células y tejidos. La simulación computacional se realiza a partir pro- blemas habituales de una revisión clínica en el cual el comportamiento mecánico se traslada a variables me- cánicas locales (deformaciones y tensiones). Del lado biológico, estas variables mecánicas locales estimu- lan la expresión celular para regular, por ejemplo, la
  • 136.
    119 composición de lamatriz y la expresión de sustancias moleculares. 3. CONCLUSIONES El constante interés de la mecánica biológica cada día va atrayendo a nuevas áreas relacionadas a la mecá- nica computacional, computacional, con el objetivo principal del análisis del comportamiento mecánico de los tejidos vivos. En el presente trabajo se ha descrito algunos de los avances en la simulación biomecánica, con la finali- dad de realizar predicciones computacionales, incluso en casos complejos como fenómenos mecanobiológi- cos, que llegan a ser importantes y de gran interés clí- nico y de esta manera ser utilizable más intensamente. Es probable que, en un futuro próximo, el desarrollo de modelos más precisos, realistas y complejos per- mitan reducir de forma drástica la experimentación en animales lo que sin duda implicara importantes aho- rros económicos y sociales. Además de posibilitar el desarrollo de investigaciones de varias disciplinas en el campo de la medicina regenerativa. La lista de artículos y trabajos acerca de la mecánica computacional es extensa y no cabría en este trabajo una descripción completa de todas y cada una de las áreas en las que ha abarcado, se hizo una breve revi- sión del estado de la mecánica computacional, se citan fuentes y se describen los modelos más importantes y relevantes. Sin embargo, se ha hecho una revisión de los trabajos actuales y las tendencias en el desarrollo de modelos computacionales que permiten construir hipótesis, teorías y probar modelos que pueden ser complejos de llevar al laboratorio. 4. REFERENCIAS BIBLIOGRÁFICAS Alvarado, D. (sf). Sobre la aparicion de la biomecá- nica y la mecanobiologia computacional: ex- perimentos computacionales y recientes ha- llazgos. Revista cubana de investigaciones biomédicas. Bertaud, J., Qin, Z., & Buehler, M. (2010). Interme- diate filamen-deficient cell are mechanically softer at large deformation: A multi-Svale simulation study. Biomaterialia, 57-66. Cardenas, R. P., Garzon, D. A., & Peinado, L. (2010). Mecanobiología de reparacion del ligamen- to. Doblare, M.(2004). Desde la Biomécanica Computa- cional a La Simulacion en Mecanobiología. Garcia, M., Doblaré, M., Seral, F., Palanca, D., & Gra- cia, L. (2000). Three-Dimensional Finite El- ement Analysis of. Journal of Biomechanical Engineering, 516-522. Garzon, D.A., Duque, C.A., & Ramirez,A. M. (2009). Sobre la aparicion de la biomecánica compu- tacional: experimentos computacionales y recientes hallazgos. Revista Cubana de In- vestigaciones Biomédicas, 3(28), 83-101. Ibañez, A., Ramirez, C., Baar, A., Martinez, G., Thi- baut, M., & Ramos, J. (2008). Estudio Bio- mecánico de resistencia en femur y predic- tibilidad de zona de fractura. Rev. Chilena Ortop t Traum, 64-70. Isaksson, H., Donkelaar, C. C., Huiskes, R., & Ito, K. (2006). Compation of biophysical stimull for mechano-regulation ot tissue differentiation during fracture healing. Journal of Biome- chanics, 8, 7-16. johnson, c. G., Goldman, J., & Gullick, W. J. (2004). Simulating complex intracellular processes using object- oriented computational mod- elling. progress in Biophysics and molecular Biology, 379-406. Ladinez, P. N., Garzon, D., & Navarrez, A. (2011). Una introduccion a la mecanobiología ani- mal. Revista Cubana de Investigaciones Bio- médicas, 368-389. Rueberg, T., Garcia, J. M., & Doblaré, M. (s.f.). A mechanobiological bone remodelling model based on 3D BUM-activity. Journal of Bio- mechanics. Sanchez, D. (2016). Caracterizacion Biomedica del Hueso de Oveja. Tesis de Grado, Barcelona. Shinbrot, T., Chun, Y., Carvajaal, C., & Foty, R. (2009). Cellular Morphogenesis In Silico. Biophysical Journal, 82-94. Vanegas, J. C., & Casale, M. C. (2011). A finite ele- ment method approach for the mechanobio- logical modeling of the osseointegration of a dental implant. Computer Methods and Pro- grams in Biomedicine , 297-314.
  • 137.
    120 RESUMEN La conexión remotaa la red corporativa se ha convertido en una necesidad para las empresas de hoy en día. El aumento del teletrabajo o los desplazamientos de personal, obligan a establecer sistemas de conexión con la red corporativa para, de esa manera, poder acceder a sus recursos. Uno de los sistemas más extendidos para comunicarse de forma remota con una red es a través de conexiones VPN. Sin embargo, una conexión VPN es también un punto crítico de entrada de todo tipo de ataque. A través de una VPN cualquier tipo de ataque puede entrar directamente en los servidores de la empresa. El problema se trata en verificar la seguridad del equipo que se está conectando de forma remota y las políticas de seguridad adecuadas para que la información no quede expuesta a posibles ataques y para esto la implementación de métodos de encriptación es esencial. Palabras clave: VPN, red, virtual, protocolo, algoritmo, encriptación. ABSTRACT The remote connection to the corporate network has become a necessity for today’s companies. The increase of teleworking or the displacement of personnel, force to establish connection systems with the corporate network to, in this way, be able to access their resources. One of the most widespread systems for communicating remotely with a network is through VPN connections. However, a VPN connection is also a critical point of entry for all types of attacks. Through a VPN any type of attack can directly enter the servers of the company. The problem is to verify the security of the equipment that is connecting remotely and the appropriate security policies so that the information is not exposed to possible attacks and for this the implementation of encryption methods is essential. Keywords: VPN, network, virtual, protocol, algorithm, encryption. 1. INTRODUCCIÓN La época en que vivimos se caracteriza por la creación y la implementación de toda clase de tecnologías de la información. Las necesidades de las empresas y organizaciones motivaron la creación de redes LAN, WAN, intranets y extranets y, por supuesto, Internet. Las corporaciones conectan su oficina central con sus sucursales utilizando diversos tipos de conexiones WAN. También instalan infraestructura para poder permitir el acceso a usuarios remotos. Ahora bien, el problema es que establecer y mantener una red privada de esa manera resulta la mayor parte de las veces algo muy costoso. Si crear una red privada resulta ser muy caro, entonces podría pensarse que, puesto que las redes públicas resultan ser más económicas sería buena idea montar la red privada de una compañía en una red pública. 2. DESARROLLO Conelusodeprotocolosdeencriptación,lainformación que atraviesa Internet lo hace de forma cifrada, de modo que sólo el destinatario seleccionado será capaz de leer la misma. Incluso en el caso de escuchas no permitidas, no será posible la recuperación de la información original de forma legible sin conocer las claves que sólo los interlocutores legítimos poseen. 2.1. VPN (RED PRIVADA VIRTUAL) Una Red Privada Virtual (VPN) es una red de información privada que hace uso de una infraestructura pública de telecomunicaciones, que conecta diferentes segmentos de red o usuarios a una red principal, manteniendo la privacidad a través del uso de un protocolo de túnel o aislamiento, así como de otras tecnologías que proveen seguridad. La función MÉTODOS DE ENCRIPTACIÓN PARA REDES PRIVADAS VIRTUALES Casas Ninachoque José Eduardo, Laura Mamani Juan Guillermo, Ramirez Castro Sergio Daniel Jecn7398casas@gmail.com, Guillermoflores979@hotmail.com, sergiodrcn@gmail.com Universidad Mayor de San Andrés Carrera de Informática Gramática Español
  • 138.
    121 principal de unaVPN es la de brindar conectividad a una red, a través de una red pública, brindando la integridad de la información. Para la implementación de una VPN, existen aspectos fundamentales que deben considerarse: costo, desempeño, confianza y seguridad. De estas características, la seguridad es la más primordial, sin la existencia de esta característica las otras resultan ser improductivos; puesto que no importa qué tan barata, rápida y confiable sea una red, sin la seguridad adecuada, los riesgos causaran la inestabilidad de la red 2.2. VENTAJAS Y DESVENTAJAS VENTAJAS: • Ahorro en costos. •Nosecomprometelaseguridaddelared empresarial. • El cliente remoto adquiere la condición de miembro de la LAN con permisos, directivas de seguridad. • El cliente tiene acceso a todos los recursos ofrecidos en la LAN como impresoras, correo electrónico, base de datos. • Acceso desde cualquier punto del mundo, siempre y cuando se tenga acceso a internet. (Caire, 2006) DESVENTAJAS: • No se garantiza disponibilidad de la conectividad Internet. • No se garantiza el caudal. • Gestión de claves de acceso y autenticación delicada y laboriosa. • La fiabilidad es menor que en una línea dedicada. • Una VPN se considera segura, pero al viajar por Internet no seguro y expuestos a ataques. (Caire, 2006) 2.3. FUNCIONAMIENTO DE UN VPN Una red privada virtual se basa en el protocolo del túnel, es decir, un protocolo que cifra los datos que se transmiten desde un lado de la VPN hacia el otro. Figura 1. Funcionamiento del VPN Fuente: (Caire, 2016) La palabra “túnel” se usa para simbolizar el hecho que los datos estén cifrados desde el momento que entran a la VPN hasta que salen de ella y, por lo tanto, son incomprensibles para cualquiera que no se encuentre en uno de los extremos de la VPN, como si los datos viajaran a través de un túnel. En una VPN de dos equipos, el cliente de VPN es la parte que cifra y descifra los datos del lado del usuario y el servidor VPN (comúnmente llamado servidor de acceso remoto) es el elemento que descifra los datos del lado de la organización. De esta manera, cuando un usuario necesita acceder a la red privada virtual, su solicitud se transmite sin cifrar al sistema de pasarela, que se conecta con la red remota mediante la infraestructura de red pública como intermediaria; luego transmite la solicitud de manera cifrada. El equipo remoto le proporciona los datos al servidor VPN en su red y éste envía la respuesta cifrada. Cuando el cliente de VPN del usuario recibe los datos, los descifra y finalmente los envía al usuario. 2.4. TUNEL Es una técnica de que usa una infraestructura entre redes para transferir datos de una red a otra. Los datos o la carga pueden ser transferidos como tramas de otro protocolo. El protocolo de tuneling encapsula las tramas con una cabecera adicional, en vez de enviarla como se produjo en el nodo original. La cabecera adicional proporciona información al routing para hacer capaz a la carga de atravesar la red intermedia. Las tramas encapsuladas son encaminadas a través de un túnel que tiene como puntos finales, los dos puntos entre la red intermedia. El túnel en un camino lógico a través del cual se encapsulan paquetes viajando entre la red intermedia. Cuando una trama encapsulada llega a su destino en la red intermedia, se desencapsula y se envía a su destino final dentro de la red. Tunneling incluye todo el proceso de encapsulado, des encapsulada transmisión de las tramas. (propio)
  • 139.
    122 Figura 2. Funcionamientodel TUNEL Fuente: (Anónimo, 2008) 2.5. PROTOCOLOS DE TÚNELES Los protocolos PPTP, L2F y L2TP se enfocan principalmente a las VPN de acceso remoto, mientras que IPSec se enfoca mayormente en las soluciones VPN de sitio - sitio. Los principales protocolos de túnel son: PPTP (Protocolo de túnel punto a punto) o (Point- to-Point TunnelingProtocol). Permite extenderse a una red privada a través de una red pública como Internet a través de túneles. Es un estándar propuesto por Microsoft, entre otras compañías, y junto con L2TP, propuesto por Cisco Systems, son los candidatos más sólidos para sentar las bases de un nuevo estándar de la IETF. L2F (Reenvío de capa dos). Es un protocolo de capa 2 desarrollado por Cisco, Northern Telecom y Shiva. Actualmente es casi obsoleto. Precursor del L2TP. Ofrece métodos de autentificación de usuarios remotos y carece de cifrado de datos. L2TP. (Protocolo de túnel de capa dos) o (Layer Two Tunneling Protocol). Surge de la confluencia de las mejores características de otros dos protocolos de entunelamiento: PPTP de Microsoft, y L2F (Layer-2 Forwarding) de Cisco Systems. Además de las diferencias en el sistema de autentificación, L2TP ha adquirido una popularidad particular por el uso de IPsec (IP Security) para garantizar la privacidad. Los dos principales componentes que conforman L2TP son el LAC (L2TPAccess Concentrator), que es el dispositivo que canaliza físicamente la llamada, y el LNS (L2TP Network Server), que es el que canaliza y autentifica elstream PPP. IPSec. Es un protocolo de capa 3 creado por el IETF que puede enviar datos cifrados para redes IP. En realidad, es un protocolo que mejora la seguridad del protocolo IP para garantizar la privacidad, control de acceso, integridad, confidencialidad y autentificación del origen de los datos. 2.6. ENCRIPTACIÓN DE VPN Todas las VPNs tienen algún tipo de tecnología de encriptación, que esencialmente empaqueta los datos en un paquete seguro. La encriptación es considerada tan importante como la autenticación, ya que protege los datos transportados de la poder ser vistos y entendidos en el viaje de un extremo a otro de la conexión. Existen dos tipos de técnicas de encriptación que se usan en las VPN: encriptación de clave secreta, o privada, y encriptación de clave pública. En la encriptación de clave secreta, se utiliza una contraseña secreta conocida por todos los participantes que necesitan acceso a la información encriptada. Esa contraseña se utiliza tanto para encriptarcomo para desencriptar la información.Este tipo de encriptación posee el problema que, como la contraseña es compartida por todos los participantes y debe mantenerse secreta, al ser revelada, debe ser cambiada y distribuida a los participantes, con lo cual se puede crear de esta manera algún problema de seguridad. (Bryan, 2011) 2.6.1. ALGORITMOS DE ENCRIPTACIÓN Una manera segura de la transmisión de datos o información en una red virtual privada (VPN) es implementar uno o más algoritmos de encriptación, en la configuración del VPN, ya que como medio de comunicación se usa el internet o similares, data que puede ser vulnerable por este medio y puede ser fácilmente capturada por personas ajenas, pero con los medios de encriptación, esta data está cifrada y no puede ser entendible por personas ajenas. DES (DataEncryption Standard). Es un algoritmo de cifrado en bloque simétrico, de longitud fija, el cual consiste de dos permutaciones, 16 vueltas en dondeelmensajede64bitsesdivididoendosbloques de 32 bits, después de usar la primera permutación llamada P1, es cifrado 16 veces utilizando cada vez una subclave, la cual se genera 16 veces en un proceso paralelo. En el proceso para descifrar se utiliza el mismo algoritmo con las subclaves en orden inverso, dando como consecuencia, la simetría del algoritmo.
  • 140.
    123 Figura 3: DES(Data Encryption Standard) Fuente: (Daley, 1999). Funcionamiento: DES, es un algoritmo de cifrado en bloques simétrico, el tamaño del bloque es de longitud fija de 64 bits, el algoritmo consta de dos permutaciones, una al inicio conocida como P1, la cual se muestra a continuación: 0 1 0 0 0 1 0 0 0 1 1 0 0 1 0 1 0 1 1 0 1 1 1 0 0 1 1 1 1 0 0 1 0 1 1 1 0 1 0 0 0 1 1 0 0 0 0 1 0 1 1 0 1 1 0 1 0 1 1 0 1 1 1 1 Tabla 1: algoritmo DES permutación Inicial Fuente: (Gerson, 2016) Después de recibir un bloque de entrada de 64 bits, el primer paso consiste en aplicar al bloque de entrada la permutación P1, teniendo como resultado un orden de salida que se identifica leyendo la tabla de izquierda a derecha y de arriba abajo. Significa que el bit del lugar 58enelmensajedeentrada,despuésdelapermutación, ocupara la posición 1 y así sucesivamente. Se muestra el resultado de haber realizado la permutación P1, la parte superior se encuentra marcada con el fin de indicar cuales son los bits que forman el sub-bloque L0, los bits restantes forman el sub-bloque R0, dando como resultado: L0 = 11111111 00011000 11010111 11101010 R0 = 00000000 11111110 11001100 10000100 Permutación E: La salida de R0 es de 32 bits, se utiliza la permutación E, con el propósito de expandir a 48 bits y así poder realizar la suma OR exclusiva con la clave Ki. a continuación, se muestra la tabla para realizar la permutación E. 32 Bits. 0 0 0 0 0 0 0 0 1 1 1 1 1 1 1 0 1 1 0 0 1 1 0 0 1 0 0 0 0 1 0 0 Tabla 2: algoritmo DES - 32 bits Fuente: (Gerson, 2016) R0 = 0000 0000 1111 1110 1100 1100 1000 0100 0 0 0 0 0 0 0 0 0 0 0 1 0 1 1 1 1 1 1 1 1 1 0 1 0 1 1 0 0 1 0 1 1 0 0 1 0 1 1 0 0 1 0 1 0 0 0 0 0 0 1 0 0 0 Tabla 4: algoritmo DES permutación E Fuente: (Gerson, 2016) El resultado de la permutación (R0) es: E(R0) = 000000 000001 011111 111101 011001 011001 010000 001000 RSA (Rivest-Shamir-Adleman). Es el algoritmo de encriptación y autentificación más comúnmente usado. Fue desarrollado en 1977 por Ron Rivest, Adi Shamir y Leonard Adleman, y se incluye como parte de los navegadores de Netscape y Microsoft, así como aplicaciones como Lotus Notes y muchos otros productos. El funcionamiento de este algoritmo se basa en multiplicar dos números primos extremadamente grandes, y a través de operaciones adicionales obtener un par de números que constituyen la clave pública y otro número que constituye la clave privada. IDEA (International Data EncryptionAlgorithm). Es un algoritmo de encriptación desarrollado en el ETH de Zurich (Suiza) por James Massey y XuejiaLai. Usa criptografía de bloque con una clave de 128 bits, y se suele considerar como muy seguro. Está considerado como uno de los algoritmos más conocidos. Durante los años que lleva siendo usado, no ha sido publicado ningún método práctico para
  • 141.
    124 reventarlo, a pesarde los numerosos intentos que han habido de encontrar uno. IDEA está patentada en USA y en la mayor parte de los países europeos, y la patente está en manos de Ascom-Tech AG. El uso no comercial de IDEA es gratuito. Funcionamiento IDEA - Generación de las sub-llaves. 1. La llave de 128 bits divididos en 8 sub-llaves de 16 bits. 2. Los bits de la llave de 128 bits sufren una rotación circular de 25 bits a la izquierda. Con esta nueva llave se continúa en el paso 3. Los pasos anteriores se repiten hasta obtener las 52 sub-llaves de 16 bits, llamadas: Z1, Z2..., Z52. IDEA en la Encriptación: 1. El mensaje se divide en bloques de 64 bits, los cuales son codificados uno por uno. 2. Cada bloque de 64 bits se divide en 4 sub-bloques de 16 bits, llamados: X1, X2, X3 y X4. 3. A estos cuatro bloques se aplica 8 veces los pasos 1 a 14 de la transparencia consecutiva. 4. Finalmente, a los cuatro bloques resultantes se les aplica los pasos 15 a 18 de la transparencia consecutiva. 5. Estos últimos cuatro bloques resultantes forman el bloque de 64 bits codificado. 2.6.2. RIESGOS ASOCIADOS A LA TECNOLOGÍA VPN Cuando se desea implantar una VPN se debe estar consciente de las ventajas que va a aportar a la organización, sin embargo, es importante considerar los riesgos que estas facilidades implican en caso de no adoptarse las medidas necesarias al implantar una VPN segura. Los estándares utilizados para la implementación de VPNs, garantizan la privacidad e integridad de los datos y permiten la autenticación de los extremos de la comunicación, pero esto no es suficiente: el uso erróneo de las VPN puede ser catastrófico para el negocio. Las medidas para implantar una VPN “segura” incluyen el uso de certificados digitales para la autenticación de equipos VPN, tokencards o tarjetas inteligentes para la autenticación “fuerte” de usuarios remotos, y para el control de acceso es importante contar con un Firewall y sistemas de autorización. 2.6.2.1. CERTIFICADOS DIGITALES Con el uso de certificados digitales, se garantiza la autenticación de los elementos remotos que generan el túnel y elimina el problema de la distribución de claves. Implantar un sistema PKI (Infraestructura de Clave Pública) para emitir los certificados digitales, permite tener el control absoluto de la emisión, renovación y revocación de los certificados digitales usados en la VPN. El uso de PKI no se limita sólo a las VPNs sino que puede utilizarse para aplicaciones como firmas digitales, cifrado de correo electrónico, entre otras. 2.6.2.1.1. AUTENTICACIÓN FUERTE En la implantación de una VPN se debe verificar que se estén realmente autenticando los usuarios. Esto dependerá de dónde se almacene el certificado digital y la clave privada. Si el certificado digital y la clave privada se almacenan, protegidos por un PIN, en una tarjeta inteligente que el usuario lleva consigo, se está autenticando al usuario. Desafortunadamente, aun no existe un estándar definido que permita la implantación a gran escala de lectores de tarjetas en los PCs. El método más adecuado es autenticar a los usuarios remotos mediante una la utilización de sistemas de autenticación fuerte. Estos sistemas se basan en la combinación de dos factores: el token y el PIN. De esta forma se asegura que sólo los usuarios autorizados acceden a la VPN de la organización. 2.6.2.2. MÉTODOS DE AUTENTIFICACIÓN NO RECOMENDABLES PAP (Password Authentication Protocol). • Envía la password en texto claro. EAP-MD5 • Desafió/Respuesta. No muy seguro. SPAP (Shiva Password Authentication Protocol). • Utiliza cifrado reversible. CHAP (Challenge Handshake Authentication
  • 142.
    125 Protocol). • Utiliza MD5para proporcionar autenticación mediante desafío-respuesta. • Requiere almacenar las contraseñas con cifrado reversible en el servidor. 3. CONCLUSIONES La seguridad es uno de los factores fundamentales y de éxito de la utilización de algoritmos de encriptación, garantiza en todo momento que las comunicaciones sean fiables Para permitir la comunicación entre dos personas sin que una tercera persona pueda comprender el mensaje transmitido se puede optar por algún tipo de algoritmos de encriptación. Elusodemétodosdeautentificaciónenimplementación de VPNs asegura que sólo los usuarios autorizados acceden a la VPN de la organización, puedan tener acceso a esta. La resistencia de la criptografía a los ataques está basada en la dificultad calculatoria de ciertos problemas matemáticos, o en la extrema confusión y dispersión aplicada a la información. 4. REFERENCIAS BIBLIOGRÁFICAS Caire R. (2016) Introducción a las rede privadas virtuales (vpn) bajo gnu/linux Caire R. (2016). Redes privadas virtuales (vpn) http:// www.lugro.org.ar/biblioteca/articulos/vpn_ intro/vpn_intro.html Gonzales A. (2006). Redes privadas virtuales. http://www.uv.es/ciuv/cas/vpn/index.html Gonzales, P. (S.A) Cifrado. ccia.ei.uvigo.es/docencia/SSI/practicas/ cifrado-jce.pdf Gonzales, P (S.A) (Tesis Pregrado). Universidad Mayor de San Andrés, La Paz, Bolivia. Muñoz M. (S.A.). Jornadas de Seguridad. http://www.acis.org.co/memorias/ J o r n a d a s S e g u r i d a d / I V J N S I / MauricioMunozIVJNSI.pdf Muñoz F. (2003). El estándar, una necesidad para ser competitivo. http://www.idg.es/computerworld/articulo. asp?id=153363 Reinosa B. (2011). Métodos de encriptación VPN https://es.slideshare.net/bryan_azr/mtodos- encriptacin-en-vpns Rodríguez C. (1998). Criptografía, MAPLE RSA. www.publispain.com/supertutoriales/ matematica/criptografia/cursos/3/crypto.pdf (S.A.). (2002). VPN: SSL frente a IPSec. www.idg.es/ comunicaciones/articulo.asp?id=133140 (S.N.). (S.A.). Control-de-acceso-la-solucion-de- seguridad-para-redes-de-altas-prestaciones. h t t p : / / w w w . c o m p u t i n g . e s / Informes/200802210018/Control-de-acceso- la-solucion-de-seguridad-para-redes-de- altas-prestaciones.aspx
  • 143.
    126 SEGURIDAD INFORMÁTICA ENENTIDADES FINANCIERAS Santander Silva Lucero Belén, Bonilla Aruquipa Saúl Yerko, Quisbert Mújica Albert Jhonatan albertjhon.128@gmail.com, grillita_93@hotmail.com, saukobonilla@gmail.com Universidad Mayor de San Andrés Carrera de Informática Gramática Española RESUMEN En este artículo se presenta el problema de la insegu- ridad informática en entidades financieras, frente a la vulnerabilidad de la información financiera y de los usuarios ante las diferentes técnicas de hacking que se conocen y otras que aún no se conocen. Se menciona los conceptos de entidades financieras, de hacking y las diferentes técnicas de hacking, sus definiciones y como poder evitar que estos puedan vulnerar nuestra información. También se toma en cuenta los riesgos y análisis de estos riesgos desde la probabilidad que dicha amenaza ocurra. Como tam- bién se hará conocer como poder evitar los ataques por hacking. Palabras claves: Información, hacking, Entidades financieras, seguri- dad, amenaza riesgo, detección, prevención. ABSTRACT This article presents the problem of computer insecu- rity in financial institutions, in front of the vulnerabil- ity of financial information and users to the different techniques of hacking that are known and others that are not yet known. It mentions the concepts of financial institutions, hacking and the different techniques of hacking their definitions and how to prevent them from violating our information. It also takes into account the risks and analysis of these risks from the probability that such a threat occurs. As will also be known how to avoid hacking attacks. KEYWORDS Information, hacking, financial institutions, security, risk threat, detection, prevention. 1. INTRODUCCIÓN Los medios de comunicación, transacciones bancarias y/o comerciales utilizados carecen (en su mayoría) de seguridad o ésta ha sido implementada en forma de “parche” tiempo después de su creación. Cualquier ataque, por lo general cada una de estas agresiones tienen como causa una importantes pérdidas econó- micas para las organizaciones, empresas entidades fi- nancieras y bancarias además de la imagen negativa y poco confiable que esta daría ante sus inversionistas y administradores; esto se debe a que cada entidad fi- nanciera y bancaria debe garantizar a todos sus clien- tes que toda sus recursos informáticos se encuentren debidamente disponibles al momento de requerir cual- quier tipo de información y protegidos ante cualquier tipo de amenaza tanto cibernético como para cualquier tipo de virus de red y así poder cumplir con sus propó- sitos que es garantizar la seguridad de la información y del dinero tanto físico como virtual de los diferentes usuarios, para ello no puede haber alteración o mani- pulación por parte de factores externos. Actualmente las empresas financieras y bancarias es- tán expuestas a una gran cantidad de amenazas que manipulan y vulneran sus sistemas informáticos, de allí parte la importancia de mantener la seguridad de los sistemas puesto que las consecuencias de un ata- que informático pueden poner en riesgo la integridad de la información. El principal es de tomar conscien- cia de los peligros potenciales en la transmisión de información confidencial y el desconocimiento de las distintas técnicas de hacking empresarial. Para las empresas financieras y bancarias lo más im- portante es la información que ellos poseen de distin- tas personas. Se puede decir que la información es uno de los pilares más importante a la hora de toma de decisiones en una entidad financiera y bancaria. De allí el valor que tiene para estos entes la protección y prevención de los sistemas de información.
  • 144.
    127 Con el pasodel tiempo se ha descubierto muchos pun- tos débiles a ser atacados y son pocos los responsables conscientes de la importancia que tiene la información tecnológica. Existe una gran necesidad de proteger la integridad de la información de las organizaciones. Y es por ese motivo el presente artículo se realiza un análisis para conocer las principales técnicas de hacking y las po- sibles amenazas a los que se encuentran expuestos los sistemas de información de la organización. 2. DESARROLLO En la actualidad la tecnología va creciendo al igual que la inseguridad informática, se escucha en la ma- yoría de las veces en las noticias, radio o periódicos que cada día existe por lo menos un problema de inse- guridad de la información como por ejemplo el robo de identidad, robo de información de redes sociales o en casos peores el robo de dinero que existen en enti- dades financieras y bancarias. Hoy en día las instituciones financieras están bajo mu- cha presión para aumentar la seguridad de los datos personales de los diferentes usuarios como la informa- ción propia de la institución. De acuerdo con la investigación de “riesgos de segu- ridad de las instituciones financieras “(realizado por kasperky lab y b2b internacional) la inversión en la seguridad informática es prioritaria en instituciones financieras y bancos debido ataques sufridos a su in- fraestructura como a la información de sus clientes. Los bancos comerciales al manejar grandes cantida- des de dinero invierten tres veces más en la TI que otras entidades no financieras, porque a opinión de los gerentes de entidades bancarias prefieren invertir más de lo debido en la seguridad que arriesgarse que ocu- rran robos o malversación de dinero por ataques ci- bernéticos. A pesar de los esfuerzos minuciosos de las entidades financieras y de los bancos en la inversión de seguridad informática ante las amenazas cibernéti- cas conocidas y desconocidos no han podido eliminar por completo el sesgo de que pueda ocurrir un fraude cibernético. A continuación, mostraremos un cuadro donde vemos los diferentes riesgos en la seguridad informática, y notaremos que el 70% de las instituciones financieras experimenta por lo menos uno de estos riesgos, que en lo particular debería no existir esa probabilidad que exista fraudes cibernéticos. Los riesgos relacionados con las transacciones banca- rias móviles aumento la nueva amenaza cibernética ya que la mayoría de las personas utilizan transacciones bancarias móviles en los próximos años, debido a que muchas personas no tienen el debido cuidado en su información personal y reciben ataques de phishing (clonación de identidad). A vista que aumentaba los ataques de phishing a sus clientes los bancos y enti- dades financieras tuvieron que revaluar sus estrate- gias para el cuidado de la información de sus clientes creando nuevas opciones de claves y/o huellas digi- tales para garantizar que todo movimiento de dinero sea por las personas correctas y verdades y no así una persona fraudulenta. Figura 1. Estadística de Fraudes Cibernéticos y Vul- nerabilidad de la Seguridad Informática Fuente. (Seguridad informática, el reto empresa- rial del momento por: redacción el tiempo 5 de mayo de 2005, 05:00 am.) En términos de impacto económico, las pérdidas por crimen cibernético a nivel mundial son de más de 300 mil millones de dólares. Sólo en fraudes bancarios, clonación y robo de cre- denciales, se estima que por cada 10 mil pesos que se muevan en una cuenta, 20 pesos se pierden por frau- des. Los cibercriminales están logrando fácilmente sus ob- jetivos a partir de abusar de la confianza y naturaleza del ser humano. 3. HACKING EN ENTIDADES FINANCIERAS La entidad financiera se puede definir de diferentes maneras según Una entidad financiera es cualquier entidad o agrupación que tiene como objetivo y fin
  • 145.
    128 ofrecer servicios decarácter financiero y que van des- de la simple intermediación y asesoramiento al mer- cado de los seguros o créditos bancarios”. Por su parte el Hacking se define como el conjunto de Técnicas y procedimientos utilizados por una persona con gran cantidad de conocimiento en el ámbito de la contra informática. Con el avance de las tecnologías se han descubiertos otros patrones de delincuencia y por lo tanto es impor- tante que, como informáticos, podremos relacionarnos más con conocimientos del área financiera, para que tomemos conciencia y seriedad frente a los problemas que pueden llegar a afectar no sólo nuestro empleo sino, peor aún, nuestra información en cualquier mo- mento. Existe una relación entre la criminalidad, como el mal más antiguo de la sociedad humana, y la tecnología informática y telemática, como los nuevos logros y conquista de la inteligencia humana. Como producto de esa relación, aparece un fenómeno que se ha deno- minado de la criminalidad informática según Rodolfo Herrera Bravo la criminología informática es: “Actos económicos criminales con el uso de ordenadores o sistemas de comunicación. En sentido amplio, es todo delito que implique la utilización de cualquier medio de tecnología informática. La conducta antijurídica, culpable y punible, se vale de medios tecnológicos para la comisión del delito”, la cual emerge de las di- ferentes técnicas que son utilizadas por las personas para apoderarse de bienes ajenos. La criminalidad informática es una forma de violar los sistemas de seguridad de una entidad financiera, de modo que se pueda acceder a sus sistemas de control u obtener información o datos deseados. Por tal motivo las entidades financieras invierten cada vez más en la seguridad informática. La actividad económica de prestar servicios basados en interconexiones con diferentes redes, exige contar con sistemas de seguridad informática adicionales que garanticen la confiabilidad de dichos servicios. La seguridad informática es un área exige la presencia de un equipo capacitado y dedicado a esta labor, lo que conlleva a la especialización de las personas en diversos campos de la seguridad informática. Figura 2: La Tecnología, un nuevo medio para cometer delito Fuente. ( Las nuevas tecnologías y los delitos infor- máticos 15 agosto, 2017) 4. RIESGOS DE HACKING EMPRESARIAL En el área de informática, existen amenazas como son: ataque de virus, códigos maliciosos, gusanos, caballos de Troya y hackers; con el uso del Internet como ins- trumento de comunicación y colaboración, los riesgos han crecido de tal forma que ahora las empresas deben enfrentar ataques cibernéticos de negación de servicio y amenazas combinadas; con las diferentes técnicas de hackeos que existen y otras técnicas que aún no se han descubierto. Cada día va en aumento la cantidad de casos e incidentes relacionados con la seguridad de los sistemas de información que comprometen los activos de las empresas. Las amenazas siempre han existido, la diferencia es que ahora, el enemigo es más rápido, más difícil de detectar y mucho más atrevido. Por ello toda organización debe estar bien preparada, en alerta y saber implementar sistemas de seguridad basados en un análisis de riesgos para evitar y/o mi- nimizar las consecuencias. Es importante conocer con detalle el entorno que respalda los procesos de nego- cio de las organizaciones en cuanto a su composición para priorizar las acciones de seguridad de los pro- cesos claves de negocio más críticos y vinculados al logro de los objetivos de la empresa. Es importante para implementar la seguridad de la in- formación es el análisis de riesgos existentes en una entidad financiera sobre su infraestructura (en caso de un robo directo), la información importante de los usuarios y para la empresa.
  • 146.
    129 Las amenazas sonconsecuencia de las fallas de segu- ridad que deben ser eliminadas al máximo para que la información que se quiere proteger esté libre de riesgos de violación de la seguridad. Por lo tanto, la relación entre amenaza-incidente-impacto, es la con- dición principal a tomar en cuenta en el momento de priorizar acciones de seguridad para la correcta pro- tección de los activos e información de las entidades financieras. Otro punto importante es la reciprocidad costo-bene- ficio. Este cálculo consiente en que sean evaluadas las me- didas de seguridad con relación a su aplicabilidad y el beneficio que se logrará. En las entidades financie- ras está clara la relación costo-beneficio, ya que todas aquellas implementaciones de la seguridad (el equipo de ejecución del proyecto, la alta administración y to- dos sus usuarios) están conscientes de los beneficios que las medidas de seguridad traerán para los indivi- duos y para la organización como un todo. 5. TÉCNICAS DE HACKING A continuación, presentamos una clasificación de las diferentes formas de ataque, una evaluación de las po- sibles consecuencias que derivan de éstas, así como las maneras más acertadas de prevenirlas y contrarres- tarlas. En el primer grupo se ubican las técnicas de monito- rización que son la etapa de observación. Estas son: Scanning (Escaneo de puertos), Enumeración del ob- jetivo y Sniffing (olfateo). El Escaneo de puertos es el primer paso en la obten- ción de información básica sobre la red. Su objetivo es indagar por el estado de los puertos de un host conec- tado a una red, y si estos puertos están abiertos para analizar posibles vulnerabilidades. Las consecuencias son constantes avisos del firewall y utilización maliciosa de puertos abiertos por parte de intrusos. Es de suma importancia que todo esté bien configura- do con aplicaciones que cubran todos los requerimien- tos y con unos buenos estándares de encriptación que aseguren la información, y un firewall que garantice el cuidado de los puertos. Con la Enumeración del objetivo se recoge y organiza la mayor cantidad de información atinente a compu- tadores, redes, aplicaciones y servicios. Al tener toda esta información organizada y disponible, lo que se pretende es avanzar a un siguiente estado donde el ata- que cobra fuerza y los resultados van a ser inmediatos. Los atacantes establecen conexiones activas con el sistema y llevan a cabo consultas dirigidas. Obtienen información en lo que respecta a máquinas, recursos de red, aplicaciones, y lo referente al sistema opera- tivo. Con el conocimiento de cualquier sistema el intruso puede preparar un ataque y acceder a todos los recur- sos informáticos. Este tipo de intromisión es el punto de partida para llevar a cabo ataques de Validación y de Modificación. Para protegerse de ataques de enumeración se deben “configurar correctamente los servicios para que no muestren más información de la necesaria. No deben usarse nombres por defecto para archivos de configu- ración y hay que desactivar puertos de administración http y snmp (Seguridad en VoIP: Ataques, Amenazas y Riesgos - Roberto Gutiérrez Gil - 2008)”. Con el Sniffing se obtiene información de todo el trá- fico que pasa por una red. En esta técnica “se usan analizadores de protocolos, que son programas que permiten monitorizar y analizar el tráfico de una red (Seguridad en VoIP: Ataques, Amenazas y Riesgos - Roberto Gutiérrez Gil - 2008)”. Las aplicaciones descifran los paquetes de datos que viajan por la red y los almacenan para luego analizar- los. Entre toda esta información se pueden distinguir con- traseñas, mensajes de correo electrónico, datos banca- rios, y otros datos confidenciales de usuario. Existen dos técnicas esenciales para lograr la detec- ción de los sniffers. La primera se basa en el host, y es determinando si la tarjeta de red del sistema está funcionando en modo promiscuo. La segunda se basa en la Red. Igualmente, la información debe enviarse encriptada con algún tipo de tecnología como PGP ó GnuPG. Para evitar ataques en las redes se recomien- da utilizar encriptación WPA. Si sólo se cuenta con WEP, la contraseña debe ser cambiada con regulari- dad. Los routers, también, deben estar bien protegidos con contraseñas.
  • 147.
    130 En el segundogrupo se ubican las técnicas de Vali- dación donde se “suplanta al dueño o usuario de la máquina mediante el uso de sus cuentan de acceso y contraseñas (Sistema hibrido para la detección de có- digo malicioso - Jorge Argente Ferrero - 2.009)”. Una de ellas es el Ataque por fuerza bruta y se define como el procedimiento por medio del cual se inten- ta acceder a través de la obtención de la clave. Estos ataques se realizan obteniendo el archivo donde están todas las contraseñas encriptadas, y de manera offline se hallan todas las combinaciones posibles de dichas contraseñas. Algunos sistemas no permiten acceder cuando se ha incurrido en cierto número de intentos fallidos. Sin embargo, otros le hacen la vida fácil a quienes preten- den acceder con esta técnica, ya que utilizan las con- traseñas más comunes. Las medidas para defenderse contra los ataques por fuerza bruta permiten de cierta manera controlar el in- tento de acceso no autorizado. El más común de estos mecanismos es el denominado “regla de los tres strikes”, que consiste en el bloqueo del acceso a una cuenta después de varios intentos de inicio de sesión fallidos (generalmente tres) (Lightweight pro- tection against brute force login attacks on web appli- cations) . En el Spoofing se suplanta la identidad de un disposi- tivo en una red informática para obtener información restringida. Este ataque tiene algunas variedades entre las que se destaca el IP Spoofing que “consiste en generar paque- tes de información con una dirección IP falsa (Sistema hibrido para la detección de código malicioso - Jorge Argente Ferrero - 2.009)”. Esta variedad de Spoofing tiene ciertas desventajas iníciales, como es el hecho de que la host víctima puede cortar la conexión o que los routers actuales no admiten paquetes cuyos remiten- tes no corresponden con los que administra en su red, lo cual acortaría el engaño a la red gestionada por un router (Suplantación de la identidad - gpd.sip.ucm.es). El riesgo más conocido de este ataque es el de Phi- shing, donde una persona es timada y se le hace creer que ha entrado a su entidad financiera de confianza. Existen algunas medidas que se pueden utilizar para contrarrestar esta técnica que van desde el uso de IP- sec para reducir los riesgos hasta la utilización de fil- tros que permitan asociar una dirección IP al tráfico que sale de la red en cuestión. El Hijacking es una técnica por medio de la cual se intercepta y se roba una sesión de algún usuario para apropiarse de algún servicio. El atacante por medio de un software sniffer husmea los paquetes que están circulando por la red y envía paquetes al servidor, y con esto simula y se adelanta al usuario autorizado. Como primera medida de protección se debe usar la encriptación, para que los datos que viajen por la red se encuentren codificados. No se puede dejar de lado el firewall, el antivirus y el antispyware. Los proto- colos de seguridad tales como https son importantes también para evitar el robo de sesión. La Ingeniería Social es un método basado en engaño y persuasión para obtener información significativa ó lograr que la víctima realice un determinado acto, como, por ejemplo, ejecutar un archivo que le llegó por email (10Hacking Ético - Carlos Tori - 2008). Esta técnica es la que se usa con mayor frecuencia a la hora de indagar sobre nombres de usuarios y con- traseñas. “Es un método que puede llevarse a cabo a través de canales tecnológicos (impersonal vía Internet o teléfo- no) o bien en persona, cara a cara (Ibíd)”. Algunas medidas a tener en cuenta son: • Nunca divulgar información sensi- ble con desconocidos o en lugares públicos. • Si se sospecha que alguien intenta realizar un engaño, hay que exigir que se identifique y tratar de revertir la situación in- tentando obtener la mayor cantidad de infor- mación del sospechoso. • Llevar a cabo programas de con- cientización sobre la seguridad de la infor- mación (Ingeniería Social: Corrompiendo la mente humana -http://revista.seguridad. unam.mx/numero-10/ingenier%C3%AD-so- cialcorrompiendo- la-mente-humana).
  • 148.
    131 En los tiposde ataques D.o.S. se consigue que los ser- vidores y redes informáticas colapsen y que de esta manera ya no puedan brindar sus servicios como lo hacen habitualmente. La técnica Jamming se refiere al bloqueo de un canal de comunicación con la intención de impedir el flujo de información. “Aquí se satura al ordenador víctima con mensajes que requieren establecer conexión y dar respuesta. Como la dirección IP del mensaje puede ser falsa, la máquina atacada intenta dar respuesta a la solicitud de cada mensaje saturando su buffer con información de conexiones abiertas en espera de res- puesta (Sistema hibrido para la detección de código malicioso – Jorge Argente Ferrero - 2.009)”. Algunos elementos importantes para tener en cuenta a la hora de prevenir y descubrir ataques de Jamming son: • La eliminación de las vulnerabili- dades conocidas en los comportamientos del protocolo y la configuración del host. • Filtrar el tráfico. • La detección de ataques (The dark side of the Internet: Attacks, costs and re- sponses). El SynFlooding consiste en mandar paquetes SYN a una máquina y no contestar a los paquetes ACK pro- duciendo en la pila TCP/IP de la víctima una espera de tiempo para recibir la respuesta del atacante (Sistema hibrido para la detección de código malicioso - Jor- ge Argente Ferrero - 2.009). Mediante aplicaciones maliciosas se falsean las direcciones IP de origen, ha- ciendo múltiples intentos de conexión desde un mis- mo equipo, lo que al hacerse en mayor escala llega a saturar el ancho de banda y colapsar los servicios que brindan el servidor (Sistema para Comunicación de Redes LAN, Inalámbricas y Bluetooth - AngelHaniel Cantú Jáuregui - 2008). Entre las consecuencias están: Saturación de los re- cursos de memoria, incapacidad de establecer co- nexiones adicionales e inundación de puertos como Smtp y http. Algunas medidas importantes son: Blindar el servidor con un firewall del tipo stateful, disponer de un sis- tema operativo actualizado y habilitar la protección SYN Cookie. Las técnicas del tipo Modificación buscan la altera- ción no autorizada de los datos y ficheros de un sis- tema. El Borrado de huellas consiste en modificar los fiche- ros log del sistema operativo de la máquina asaltada, donde queda constancia de la intrusión, para borrar el rastro dejado por el atacante (Sistema híbrido para la detección de código malicioso - Jorge Argente Ferrero - 2.009). El intruso puede borrar sus rastros progra- mando un zapper adecuado al objetivo y al modo de gestionar registros que existe en el servidor. A su vez, debe borrar todos los log´s que éste modifica tras su paso y sólo eliminar las entradas que corresponden a dichas sesiones (Hacking Etico - Carlos Tori - 2008). Las consecuencias son: Posibilidad de ataque futuro, al no detectarse la intrusión a tiempo y pérdida de in- formación de la mano del borrado de archivos. En cuanto a medidas de protección, si se detecta al intruso pueden ocurrir tres cosas importantes. Lo pri- mero es que sabiendo dónde está el hueco de seguri- dad, éste puede ser cubierto. Lo segundo es que con el conocimiento obtenido se pueden evitar ataques posteriores, y se puede llevar a cabo es el rastreo del atacante. Figura 3: Internet, almacén de información valisa Fuente: Tutoriales hacking (septiembre 2014) 6. APORTES El Hacking Empresarial se define como el conjunto de técnicas y procedimientos utilizados por una persona con gran cantidad de conocimiento en el ámbito de la contra informática. La relación entre los riesgos y los ámbitos se especi- fica comparando qué tan alto es el riesgo que se toma
  • 149.
    132 en cada unade las decisiones con respecto a los dife- rentes ámbitos. Las técnicas de Hacking parten de cuatro grandes gru- pos que son: Monitorización, Validación, DOS (Dene- gación de Servicio) y Modificación. Cada una de las técnicas expone una definición, su objetivo, el modo de operación, sus consecuencias y cómo detectarla ó prevenirla. El grupo de Monitorización está compuesto por Scan- ning (Escaneo de Puertos), Enumeración y Sniffing (Olfateo). Validación se compone de Fuerza bruta, Spoofing (Su- plantación), Hijacking (Robo de sesión) e Ingeniería Social. En el DoS ubicamos las prácticas de Jamming (Interferencia) y SYN Flooding (Ataque por sincro- nización). Y finalmente en el grupo de Modificación encontramos el Borrado de huellas. Se le brinda especial importancia al primer y segundo grupo de prácticas, ya que allí se gestan las bases para cualquier intrusión en un sistema informático. Del ter- cer grupo se analizan las dos técnicas más importantes y del último grupo se estudia la técnica con la cual finaliza cualquier ataque de Hacking 7. FORMAS DE PROTEGER UNA EMPRESA DE UN CIBERATAQUE. 6.1. ANÁLISIS DE EXPOSICIÓN DE RIEGO Se debe hacer un análisis de los incidentes que puede suceder para calibrar la seguridad que protege al siste- ma y a si no afectar a la institución. 7.2. INVERTIR SOLO LO NECESARIO No se debe derrochar muchos recursos o dinero, por- que no todos requieren la misma seguridad y tampoco tienen la misma forma de negocio. 7.3. INFORMACIÓN Y DATOS IMPORTAN- TES BAJO SEGURO El internet seguro es una de las mejores opciones para proteger datos e información de la empresa. 7.4. ACTUALIZAR SOFTWARE Es necesario actualizar nuestro software ya que di- ficulta a los hackers poder realizar daño a nuestros equipos, además las actualizaciones brindan una me- jor versión que las anteriores y corrige déficits de se- guridad. 7.5. TENER CONTRASEÑAS ALFANUMÉ- RICAS Es necesario que las contraseñas contengan letras ma- yúsculas y minúsculas, números y símbolos para que a si no puedan ser descifradas con mucha facilidad. 7.6. COMPROBAR DE DONDE PROCEDE EL CORREO ELECTRÓNICO Una forma de robar información es a través de un co- rreo falso, por eso debe comprobar la procedencia del remitente siempre que se pueda. 7.7. EVITAR DESCARGAR PROGRAMAS NO AUTORIZADOS Se debe tener cuidado de donde se descarga progra- mas o documentos ya que por medio de ellos los ci- berdelincuentes meten una serie de virus. 7.8. REALIZAR COPIAS DE SEGURIDAD Se debe realizar copias de seguridad para así no perder la información, ya que los dispositivos de almacena- miento pueden fallar, una buena opción sería la con- tratación de un servicio de nube, que también te ofrece una protección contra ciberataques. Figura 4: Control de Usuarios Fuente: Operaciones de inversión en Internet: entre la legalidad y el engaño 8. ¿QUE VENTAJAS Y DESVENTAJAS DE LA SEGURIDAD INFORMÁTICA? 8.1. VENTAJAS 1) Asegura la privacidad y la integridad de datos e in- formación de un sistema informático y también de sus propios usuarios. 2) Crea precauciones de garantía para evitar daños y
  • 150.
    133 problemas en elsistema. 3) Crea resistencias de mucha seguridad utilizando contraseñas, antivirus cortafuegos, etc. para la protec- ción del sistema y de los equipos de los usuarios. 4) Dar mucha seguridad a la población sobre el ma- nejo de la tecnología informática para evitar posibles amenazas. 8.2. DESVENTAJAS 1) En equipos antiguos, un antivirus efectivo, se vuel- ve más pesado e incómodo, ya que lo vuelve más lento al equipo por usar mucho espacio en la memoria. 2) En los últimos tiempos los requisitos de la contra- seña son más complejos ya que te pide cambiar cons- tantemente tu contraseña, y esto a veces es dificultoso recordarlas. 9. CONCLUSIONES Este trabajo ha descrito la naturaleza y características de la importancia de la seguridad informática en en- tidades financieras, la importancia de implementar la seguridad informática y cuál es el impacto que esta traerá a la organización. También, se establecieron ciertas recomendaciones que ayuden a las personas a cuidar su información. Con el conocimiento adquirido se dispone de cierta ventaja para afrontar muchos de los riesgos que sur- gen cada día en materia de seguridad informática. Se ha podido observar la gran cantidad de situaciones de amenaza en las que se encuentran inmersas las en- tidades financieras, y como se podría capacitar al per- sonal para que tomen medidas preventivas para evitar posibles fraudes cibernéticos. El humano debe tomarse como el elemento clave, ya que de unas adecuadas sensibilizaciones dependen los resultados a la hora de afrontar situaciones que ponen en riesgo la estructura organizacional. Ahora queda en manos de los directivos de estas or- ganizaciones el tomar las mejores decisiones que procuren en un largo plazo obtener altos logros en la defensa de sus sistemas de información con mecanis- mos de protección de la información y mecanismos de prevención. 10. REFERENCIAS BIBLIOGRÁFICAS • Adams C, Jourdan G, Levac J, Prevost F.2011]. • Argente J, García R, Martínez J. Sistema híbrido para la detección de código malicioso. De- partamento de Ingeniería del Software e Inte- ligencia Artificial - Facultad de Informática. • Cantú A. Seguridad Informática: Sistema para co- municación de Redes LAN, Inalámbricas y Bluetooth [Trabajo de Grado]. Tamaulipas: Universidad Autónoma. Facultad de Ingenie- ría;2008. 123 p. • DIARIO DIGITAL DE INFORMACIÓN ECONÓ- MICA Y FINANCIERA - Domingo 15 de oc- tubre de 2017 La importancia de la seguridad en los bancos y en el sector financiero. • Gutiérrez R. Seguridad en VoIP: Ataques, Amena- zas y Riesgos. Universidad de Valencia.2008. • Herrera E., SEGURIDAD INFORMÁTICA, 15 de septiembre de 2014, https://informaticasegu- raupc.wordpress.com/author/ensambles01/ • http://www.seguridadenamerica.com.mx/noticias/ de-consulta/articulos-destacados-de-seguri- dad/22584-seguridad-en-bancos. • Lightweight protection against brute force login at- tacks on web applications - http://ieeexplore. ieee.org.ezproxy.utp.edu.co/stamp/stamp. jsp?tp=&arn umber=5593241 • Ingeniería Social: Corrompiendo la mente humana -http://revista.seguridad.unam.mx/nume- ro-10/ingenier%C3%AD-socialcorrompien- do-la-mente-humana. • Kim W, Jeong O, Kim C, So J. The dark side of the Internet: Attacks, costs and responses.Inf. Sys. 2011; 36 (3): 675-705. • Moreno J. Seguridad Informática: Técnicashacker. 2010 -http://informatica.gonzalonazareno. org. • Pérez J. y Merino M., SEGURIDAD INFORMÁTI- CA, 2008, https://definicion.de/seguridad-in- formatica/ • Promonegocios.net -http://www.promonegocios.
  • 151.
    134 net/mercadotecnia/empresadefinicionconcep- to.html [Consulta:de septiembrede 2011]. • Reflexiones sobre la delincuencia vinculada con la tecnología digital (basadas en la experiencia chilena) Rodolfo Herrera Bravo Abogado Doctorando en Derechos Constitucionales e Informática.Seguridad y delito informático. • SEGURIDAD INFORMÁTICA, EL RETO EM- PRESARIAL DEL MOMENTO Por: Redac- ción ELTIEMPO 5 de mayo de 2005, 05:00 am. • Veniamin Levtsov, Vicepresidente, Negocio Em- presarial, en Kaspersky Lab.https://business. kaspersky.com/how-the-financial-industry-re- acts-to-cyberthreats/6610. • The dark side of the Internet: Attacks, costs and responses - http://www.sciencedirect.com. ezproxy.utp.edu.co/science/article/pii/S0 30643791000132
  • 152.
    135 SISTEMAS OPERATIVOS, ELSOFTWARE BASE DE LA COMPUTADORA Salcedo Ayala Luis Rubén salcedo@hotmail.com Universidad Mayor de San Andrés Carrera de Informática Gramática Española RESUMEN El sistema operativo es unsoftware con el cual lle- ga a funcionar en granmedida un ordenador, siendo este el que seencarga respecto al gestionamiento , or- ganización y administración de todos los recursos y elementos del ordenador, en el cual se relacionan los elementos físicos (Hardware) junto con los elementos simbólicos o no tangibles. Estos programas principales derivan su inicio des- de varias décadas atrás, iniciando alrededor de los años sesenta, a partir de este tiempo los sistemas operativos fueros desarrollando de maneras conti- nua y adaptándose más con respecto a las creacio- nes y apariciones de nuevos elementos en el área de informática, relacionándose con los mismos y am- pliando la calidad, las opciones, características, etc. Que llega a ofrecer el ordenador dentro de su época. Con el pasar de los años han llega a existir toda una variedad de opciones respecto al sistema operativo en estos destacando a gran medida, Windows por el lado de los ordenadores personales y Android, siendo este conocido en los aparatos móviles; además de estos dos, también existen una variabilidad de estos sof- tware según su época y además del lo conocidos que estos llega a ser. Palabras Clave: Microsoft, sistema operativo, Win- dows, software, hardware, Android. ABSTRACT An operating system (OS) is the software component of a computer system that is responsible for the man- agement and coordination of activities and the sharing of the resources of the computer. The OS acts as a host for application programs that are run on the machine. As a host, one of the purposes of an OS is to handle the details of the operation of the hardware. This relieves application programs from having to manage these de tails and makes it easier to write applications. Almost all computers use an OS of some type. OSs offer a number of services to application programs and users. Applications access these services through application programming interfaces (APIs) or system calls. By using these interfaces, the application can request a service from the OS, pass parameters, and receive the results of the operation. Users may also interact with the OS by typing commands or using a graphical user interface (GUI). This kind of software changed with the pass of the time and evolves making new characteristics and functions helping to the people in different ways, talking about the technology and how that have been useful for the mankind. Keywords: Operating system, host, software, appli- cations, interface, commands. Figura 1. Grafica de S.O. Fuente: (Anónimo, 2017) 1. INTRODUCCIÓN El sistema operativo es el programa principal y funda- mental que se encuentra dentro de una computadora, gracias a este, el ordenador llega a poder desarrollar la capacidad en gestionar los recursos requeridos y nece- sarios en el sistema informático, relacionando tanto el software (parte intangible, como los programas) como el hardware (parte física).
  • 153.
    136 Actualmente existen diferentestipos de sistemas ope- rativos, estos llegando a variar según el hardware en el que se aplica, además si estos llegan a ser utilizados con un pago previo o llegan a ser gratuitos. 2. DESARROLLO ¿Qué es un sistema operativo?. Es una pregunta que una persona debe conocer en primer lugar, este basándose en un concepto en específico, siendo “el conjunto de programas informáticos que permite la administración eficaz de los recursos de una com- putadora”(Porto, 2008.), siendo gracias a este el poder desarrollar diferentes funciones que llegan a ayudar al usuario; en estos sistemas, llegan a comunicarse en base de un idioma en específico, siendo de este que se llega a traducir a un idioma que llega a ser más com- prensible a nuestro lenguaje (aunque este se llega a plantear de mejor manera con el idioma inglés). Un sistema operativo es un programa con el cual se desarrolla de una manera más amplia y variada el funcionamiento de un hardware, diferencia de otros tipos de software, de este se llegan a derivar los de- más, mientras otros tipos de software, simplemente cumplen con una función en específico, la función del sistema operativo llega a ser el programa priori- tario con el cual una computadora llega a funcionar con una gran medida y desarrollar diferentes tipos de operaciones y funciones, siendo de hecho, en este sof- tware se llegan instalar dentro del S.O.; un dato extra que se puede mencionar acerca de este llega a ser que el mismo esta compuesto con diversas herramienta y elementos tales como imágenes o iconos, el cual lle- gan a ayudar en facilitar la elaboración de diferente operaciones y actividades (sean a nivel personal, edu- cacional , laboral o profesional). Ciertas funciones que el sistema operativo puede ofre- cer es: • El poder administrar múltiples programas de ma- nera simultáneay organizada. • Se ocupa enlas relaciones con el usuario, por di- ferentes medios de entrada y salida, emitiendo los datos y también ayuda a recibir los mismos. • Logra evaluar y controlar las funciones del com- putador y de los elementos o hardware del mismo. 2.1. LA EVOLUCIÓN DE LOS S.O. Los sistemas operativos han ido evolucionan con el paso del tiempo, empezando desde los años 40, sido a finales de esta década donde surgió la primera gene- ración de computadoras, aunque en estos se debe des- tacar que no existía de manera clara los S.O. debido a que los programadores interactuaban de manera muy directa con el ordenador, siendo esto aparatos de gran tamaño y con un elevado costo económico. A principios de la década de los 50, los sistemas ope- rativos hacen una aparición a un nivel ligero de di- gresión, con desarrollo simple, este cuenta con la ca- pacidad de procedimiento de lotes, además del poder almacenar datos de manera temporal reduciendo el tiempo de carga de los programas. Posteriormente en los años 60 existieron varias mejoras y cambios, esto gracias al nacimiento del circuito cerrado, con el cual se lograron realizar diversas operaciones, tales como la multi programación, además el poder realizar múl- tiples operaciones de manera simultánea, además de mejorar el tiempo de respuesta por parte del ordena- dor. Centrándose en la década de los 80 y gracias a la aparición de los chip, llego a la mejora y el desarrollo de nuevas e importantes funciones, el nacimiento de nuevos lenguajes de programación siendo el caso del C++ y el Eiffel, además de la popularización del MS- DOS siendo el primer sistema operativo de Microsoft que llego a ganar popularidad y ser de los mas usados. No mucho tiempo después nació un nuevo S.O. por parte la misma empresa, este es Windows 1.0, nombre que se le dio debido a los cuadros o ventanas informá- ticas que se presentaban en el mismo sistema. Figura 2. Windows 1.0 Fuente: (Anónimo, 2017) Sus características principales eran: • “Interfaz gráfica con menús desplegables, venta- nas en cascada y soporte para mouse.
  • 154.
    137 • Gráficos depantalla e impresora independientes del dispositivo. • Multitarea cooperativa entre las aplicaciones Win- dows. Windows 1.0 requiere como mínimo 256 KB,  y reco- mienda disponer  de 512 KB” (Anónimo, 2011.). Posterior a este, surgió toda una serie de nuevos siste- mas operativos provenientes de esta empresa, pasando por: Windows 2.0; cuanto este nuevo software para la computadoranació en el año 87, un nuevo lenguaje de programación también apareció este siendo el len- guaje de programación C++, mientras tanto el sistema operativo UNIX dominaba los sistemas operativos además del sistema Mac. A finales de esta década Mi- crosoft puso al mercado su segunda versión de Win- dows, en este se agregó el ‘Panel de control’ el cual aúnestá disponible en los S.O. actuales. Figura 3. Unix a finales de 1980 Fuente: (Anónimo, 2017) A principios de los años noventa, apareció la nueva versión de software proveniente de la actualmente co- nocida empresa de Bill Gates, siendo la versión 3.0 y este apareció en mayo del inicio de la década, el cual se presentó con las siguientes características: • “Modo estándar (286), con soporte mejor soporte de memoria (largememory). • Se agregó en Administrador de Programas y de Archivos • Soporte de Red Soporte para combo boxes, menús jerárquico y los ar- chivos .INI privados para capa aplicación empezaron a cobrar más valor.”(Anónimo, 2011.) Estas caracteristicas optenidas daban un nivel de va- lorizacion enlos hambidos laborale sy locales, ademas de la iclusion de ciertos programas de entretenimien- to o juegos(solitario, buscaminas); ademas que en el nivel grafico este se llego a avanzar a 16 colores y la mayor utilizacion de los disketes. Figura 4. Windows 2.0. Fuente: (Anónimo, 2017) Un año después en el ’91, hace su aparición la pinera versión de Linux, un sistema que se encuentra basado en UNIX con ciertas características similares al MS- DOS, debido a que esta época el programa principal, solo se podía operara por medio de comandos, como Microsoft planteo en el inicio; será posterior cuando se desarrolle Linux de manera mas sencilla y gráfica. Unos años después se lanza Windows NT (new te- chnology) este tras el gran recibimiento del anterior Windows, apareció ofreciendo nuevas características, entre las cualesdestaca el ser un S.O. de 32 bits, aun- que hubo problemas con respecto a la compatibili- dad entre el software y el hardware; posterior a este se ofreció otras versiones, entre estas el NT 3.1, NT 3.5/3.51 este último publicado a finales del año 94. A mediados del año 95, Microsoft lanza al mercado uno de los S.O. que llego a destacar y ser de los mas cocidos, el Windows 95; desde este software inicia la utilización de los correos electrónicos fax/módems, juegos multimedia, además que ese llego a incorporar el sistema de archivos FAT32 y el acceder a la cone- xión USB, además de este también se podían acceder la lectura de disketes y CD’s; ciertos requisitos que llegan a necesitar como mínimo eran: • “PC con un procesador 386DX o superior (se re- comienda 486) • 4 megabytes (MB) de memoria (se recomiendan
  • 155.
    138 8 MB) • Espacioen disco duro necesario normalmente para actualizarse a Windows 95: 35 a 40 MB. El requisito real varía, dependiendo de las características que elija instalar. • Espacio en disco duro necesario normalmente para instalar Windows 95 en un sistema limpio: 50 a 55 MB. El requisito real varía, dependiendo de las características que elija instalar. • Una unidad de disco de 3,5 pulgadas de alta den- sidad (instalación desde diskettes)” (Anónimo, 2011.). Con todos estos requerimientos llegan a ser un siste- ma operativo el cual se puede utilizar para diferente4s propósitos, siendo en lugares de trabajo, en medios de educación o dentro de los hogares usándose con un propósito personal; aunque en cierta manera existen personas las cuales no consideran a W95 como un sis- tema operativo real es debido a que necesitaba cargar primero MS-DOS al iniciar haciendo que este no sea un software totalmente independiente. Figura 5. Logo Windows 98. Fuente: (Anónimo, 2011) Este llego a ser presentado a mediados del año 1998, eta versión es una diseñada específicamente para el consumidor y continua basándose inicialmente en el sistema MS-DOS; para este sistemaoperativo existen dos versiones, siendo este: el original que salió ini- cialmente y también la versión 98SE, este último con mejores características siendo estas, una mejora en el soporte USB, y el soporte para la lectura de DVD- ROM, algunos de los requisitos que se llegó a necesi- tar para este nuevo Software eran: • “Procesador 486 DX2 a 66 MHz o superior  con 16 MB de  memoria RAM  (se recomiendan 24 MB). • Suficiente espacio en el disco duro. La cantidad de espacio necesario depende del método de ins- talación elegido y de los componentes que haya seleccionado. • Actualizando desde Windows 95 o desde 3.1: 140- 315 MB (normalmente 205 MB) de espacio. • Nueva instalación usando el sistema de ficheros FAT16: 210-400 MB (normalmente 260 MB) de espacio. • Nueva instalación usando el sistema de ficheros FAT32: 190-305 MB (normalmente 210 MB) de espacio. • No soporta instalación en particiones/discos con el sistema de ficheros NTFS como las versio- nes Windows NT • NOTA: Ambos, Windows 98 y Windows 98SE, tienen considerables problemas asociados a discos duros de un tamaño superior a 32 GB. Se hizo pú- blica una actualización de software para corregir esta deficiencia. • Monitor con resolución VGA o superior. • Unidad de CD-ROM. • Microsoft Mouse o un dispositivo apuntador com- patible.”(Anónimo, 2011). Como un dato curioso, durante la presentación de este S.O. por medio de su presidente Bill Gates intento mostrar la facilidad del programa, y durante la ins- talación de un escáner, el sistema operativo se colgó mostrando la pantalla azul. Años después, en el año 2000 apareció el sistema Windows con el mismo nombre respectivo al año- siendo este elaborado con una mayor utilidad para los administradores en sistemas, este siendo además un sistema operativo para empresas; de este software existen cuatro variantes: • Windows 2000 Professional
  • 156.
    139 • Windows 2000Server • Windows 2000 Advanced Server • Windows 2000 DatacenterEdition Ese mismo año, a finales del propio fue lanzado al mercado el Windows ME siendo un S.O. grafico de 16/62 bits, considerándose como el sucesor de Win 98, este a diferencia del anterior previamente mencio- nado, son designados mas para un uso casero, además de que contiene ciertas características graficas de Win 2000. Para el año 2001 apareció el sistema operativo Win- dows XP, elnombre de este se pasa en la palabra eX- Perience o eXPeriencia, este es sistema operativo que llego a ser más usado, incluso en los días actuales se continua usando; este llega a ser un sistema con un ambiente grafico más agradable mayor velocidad y además de ser mas sencillo en operar; este sistema operativo recibió diversas actualizaciones denomina- das más comúnmente como Service pack, siendo en total 3: • “SERVICE PACK1: 9 de Noviembre de 2002. • SERVICE PACK 2: 6 de Agosto de 2004. • SERVICE PACK 3: 6 de Mayo de 2008.” (Anóni- mo, 2011). Posterior a esta última actualización Microsoft pres- cindió en la elaboración de nuevos Service packs aca- bando con este último. Posterior a este salieron otros sistemas operativos, desde el muy criticado Windows Vista, pasando por el innovador Windows 7, hasta el más reciente Windows 10, llegando a la interrogante de cómo será los próxi- mos S.O. que ofrecerá Microsoft y además si lograra existir en el futuro otra empresa con un sistema ope- rativo que se muestre como una competencia directa con el actual sistema operativo más utilizado, pudien- do ser Linux, Mac u otros; siendo interrogantes que llegaran a ser contestadas a con el pasar del tiempo. Figura 6. Logo de Windows antes y ahora Fuente: (Anónimo, 2011) 2.2. CLASES DE SISTEMAS OPERATIVOS Respecto a los tipos de sistemas operativos estos se llegan a clasificar de una manera más directa en los utilizados para P.C. u ordenadores personales, y los aparatos móviles. Iniciando con los software de las computadoras de uso personal, se encuentran prin- cipalmente Windows, siendo actualmente uno de los más conocidos a nivel popular, este a estado en fun- cionamiento desde los ochenta iniciando de manera oficial con el MS-DOS y posteriormente con la apari- ción de Windows 1.0 siendo su primer sistema opera- tivo con una interfazgráfica y no solo con comandos como su predecesor, actualmente su ultimo software que llegaron a ofrecer es Windows 10; por otro lado se encuentra el S.O. de Apple, aparte de los mismos también existen software de acceso libre también lla- mativos siendo estos: Linux, el cual apareció basándo- se en otro sistema operativo actualmente desaparecido llamado Unix, este gracias a distribuidores como por ejemplo Ubuntu, mandriva o Linux Mint, este sistema operativo llego ganar un gran nivel de popularidad; otros S.O. son Chrome OS: que a pesar de ser parte de Linux llega a ser lo suficientemente diferente como para ser considerado como un sistema operativo dife- rente, este que permite trabajar únicamente con Goo- gle Chrome;React OS, este siendo un sistema opera- tivo de código abierto siguiendo diseños basados en Windows NT, siendo diferente que Linux y Unix; y Mac OS X, con el cual puedes probar algunos siste- mas operativos de Mac, antes de llegar a comprar al- guno.Por el lado de los aparatos móviles, estos llegan a ser ciertamente otro tipo de sistemas operativos de- bido a ciertas características de estos aparatos siendo estos: Android, este siendo un software perteneciente de Google y siendo uno de los mas conocidos dentro de este tipo de aparatos móviles, este llega a ser mas utilizado por los aparatos marca LG, Motorola, BQ, además que en todos los aparatos celulares de Sam- sung; iOS, este proviene de la empresa Appley para este tipo de software llegan a ser utilizadas en los pro- ductos de la misma empresa siendo estos por ejemplo los iPhone y los iPad; Sysmbian, siendo un software
  • 157.
    140 de la propiedadde Nokia y utilizado exclusivamente para sus teléfonos, para poder llegar a acceder a este sistema operativo requiere previamente tener la auto- rización de Nokia; BlackBerry OS, este proviene de la propia empresa que fabrica los BlackBerry, utilizados para los celulares de la misma marca ;Firefox OS, este proveniente de la Función Mozilla, los cuales son los r4sponsables del navegador Firefox, este sistema ope- rativo llega a ser utilizado por empresas tales como Geeksphone y Alcatel. Figura 7. Windows Phone Fuente: (Anónimo, 2011) Windows Phone, este fue creado por Microsoft y fue utilizado por diferentes Smartphones de alta gama de Nokia, sus diseño se basa para ser estéticamente similar al software de Windows utilizados por la Pc, teniendo problemas con respecto a las pocas aplica- ciones que llegan a ser compatibles con el presente Sistema operativo, pero recientemente el mismo dejo de producir, esto debido a la muy baja cantidad de usuarios que utilizan este S.O. siendo que a cau- sa del mismo varias de las empresas en este merca- do no tienen pensado el invertir en Windows Phone, además que llegan a existir muy pocas aplicaciones que llegan a ser compatibles con este Sistema opera- tivo lo cual llegó a desanimar a diferentes usuarios el querer adquirirlo, siendo entre mediados y finales de año se anunció de manera oficial el retiro del sis- tema operativo de Windows para aparatos móviles. 3. CONCLUSIONES Los sistemas operativos son el software clave y fun- damental para la funcionalidad de manera práctica en los aparatos tecnológicos de nuestra era, sin ellos el desarrollo de muchos aparatos tecnológicos y de la propia informática pudieron llegar a ser negativamen- te diferentes. El sistema operativo paso por muchos cambios y de- sarrollos con el pasar del tiempo, además que también este llegara a cambiar y desarrollarse a tiempo futuro, siendo un misterio las limitaciones que este pueda te- ner. Hasta nuestra época actual han llegado a existir toda una variabilidad de sistemas operativos desde unos muy efectivos, a obsoletos, de software sumamente conocido o bastante utilizado, a otros no muy reco- nocidos. 4. REFERENCIA BIBLIOGRÁFICA Anónimo.(11 de octubre de 2017). retro-informática, España, Barcelona. Facultad Informàtica de Barcelona. Recuperado de: https://www.fib. upc. edu/retro-informatica/ historia/so.html. Anónimo. (11 de octubre de 2017).areatecnologia. Recuperado de:http://www.areatecnologia. com/sistemas-operativos.htm. Anónimo. (11 de octubre de 2017).areatecnologia. Recuperado de: http://www.areatecnologia. com/informatica/sistemas-operativos-movi- les.html. Anónimo. (11 de octubre de 2017). histinf.blogs. Recuperado de: http://histinf.blogs.upv. es/2011/12/09/el-sistema-operativo-win- dows-desde-sus-inicios-a-la-actualidad. Anónimo. (11 de octubre de 2017).histinf.blogs.Recu- perado de: http://www.youtube.com/watch?- v=fI9SPjFQgDk&feature=related. Anónimo. (11 de octubre de 2017). maestrosdelweb. Recuperado de: http://www.maestrosdelweb. com/principiantes/historia-de-windows. Anónimo. (11 de octubre de 2017). Taringa. Re- cuperado de: http://www.taringa.net/posts/ info/11171050/Evolucion-de-Windows–_to- dos_.html. De Juana R.(11 de octubre de 2017).muypy- mes: tpnet. Recuperado de:https://www. muypymes.com/2014/06/06/diez-siste- mas-operativos-alternativos-que-puedes-ins- talar-en-tu-pc. Gutiérrez O. (11 de octubre de 2017). cnet. Recupe- rado de: https://www.cnet.com/es/ noticias/ microsoft-windows-10-windows-phone-cie- rra. Pascoe L.(11 de octubre de 2017).infogram. Re- cuperado de: https://infogram.com/la-his- toria-de-los-sistemas-operativos-1go- 502yyw8k82jd. Pérez J.(11 de octubre de 2017).definicion.de. Recu- perado de: https://definicion.de/ sistema-ope- rativo.
  • 158.
    141 USO DE DEEPLEARNING EN GOOGLE PARA EL DESARROLLO DE LA INTELIGENCIAARTIFICIAL López Dávalos Nelson Luis, Quispe Mendoza Rodrigo Ariel, Ramos Mamani Wara Victoria nelson.lopez.ld@gmail.com, rodrigo.elsinico@gmail.com, waritavicramosmamani752@gmail.com Universidad Mayor de San Andrés Carrera de Informática Gramática Española RESUMEN El desarrollo del Deep Learning es un gran salto en el campo de la Inteligencia artificial debido a que a partir una base de ejemplos intentan definir nuevos conceptos y crean modelos para aprender nuevas re- presentaciones. El avance de la tecnología se ha ido mostrando muy sorprendente, excepto algunos suce- sos inesperados; el avance tecnológico que fueron de- sarrollando, el cual podría significar un gran avance para la humanidad o tal vez podría no llegar a ser lo que muchos esperaban. Palabras Clave: Deep Learning, Inteligencia Artifi- cial, Red Neuronal, DeepMind, Google. ABSTRACT The development of Deep Learning is a great leap in the field of artificial intelligence because from a base of examples try to define new concepts and create models to learn new representations. The advance of the technology has been showing very surprising, except for some unexpected events; the technological advance they were developing, which could mean a breakthrough for mankind or perhaps might not be- come what many expected. Keywords: Deep Leaming, Artificial Intelligence, neuronal network, DeepMind, Google. 1. INTRODUCCIÓN El Deep Learning es un sistema de aprendizaje pro- fundo que se basa en la inteligencia artificial, y que pretende imitar o emular la estructura de las redes neuronales que forman en el cerebro interconectadas. La base de este concepto son operaciones matemáti- cas que trabajan con las palabras, que dan valor y las interrelacionan entre sí para llegar a deducir sinóni- mos. La gran diferencia entre los algoritmos existen- tes hasta ahora y este nivel de aprendizaje profundo es que los cambios no los realiza ninguna persona, sino la misma inteligencia artificial. En la actualidad los métodos de la inteligencia artifi- cial (IA) tienen un gran auge y muchos investigado- res se encuentran estudiando nuevas alternativas en el área. Hoy en día es común el empleo de sistemas que utilizan la IA para su funcionamiento de esta siendo utilizada y tiene buenos resultados un ejemplo es Goo- gle con sus servicios ya sea recomendaciones de video de YouTube o reconocimiento de voz. En el enfoque Deep Learning se usan estructuras ló- gicas que se especializan en detectar determinadas ca- racterísticas existentes en los objetos percibidos. La visión artificial es una de las áreas donde el Deep Learning proporciona una mejora considerable en comparación con algoritmos más avanzados. Los modelos computacionales de Deep Learning imi- tan estas características arquitecturales del sistema nervioso, permitiendo que dentro del sistema global haya redes de unidades de proceso que se especialicen en la detección de determinadas características ocultas en los datos. Este enfoque ha permitido mejores resultados en ta- reas de percepción computacional, si las comparamos con las redes monolíticas de neuronas artificiales. 2. DESARROLLO Uno de los sistemas de aprendizaje automático es Ten- sorFlow de Google, que es más rápido, inteligente y flexible que su anterior sistema. Se puede adaptar con mayor facilidad a nuevos productos y es altamente escalable. Se puede ejecutar en un solo teléfono in- teligente o en los miles de ordenadores en los centros de datos. Además, permite construir redes neuronales hasta cinco veces más rápidas que el anterior sistema de primera generación usado por Google. El sistema de aprendizaje automático TensorFlow está
  • 159.
    142 especializado para elreconocimiento de voz, recono- cimiento de textos y reconocimiento de imágenes. Figura 1. Tensorflow. Fuente: (Anónimo, 2017) Es necesario entender el aprendizaje profundo como un paso más allá del hasta ahora existente machine learning, los algoritmos que aprenden de su experien- cia para sacar conclusiones de manera automática y poder predecir de manera efectiva los resultados. Él aprendizaje profundo recoge este concepto y lo acer- ca al funcionamiento del cerebro humano para crear las bases de la inteligencia artificial. Partiendo de esta idea, se crea una jerarquía de conceptos que se rela- cionan entre sí y con otros, tanto más simples como abstractos, siempre a partir de los datos originales. Otra de las diferencias más importantes entre el ma- chine learning y el aprendizaje profundo es que este último no entrena al algoritmo para reconocer un con- cepto, más bien le enseña a analizar y a decidir las pro- piedades adecuadas para tener en cuenta para llegar a una respuesta correcta. Esto implica la necesidad de trabajar con millones de datos que permitan estable- cer estas correlaciones, lo que no es ningún problema porque el flujo de datos en Internet está creciendo de manera exponencial en los últimos años. Cada vez que lleguen nuevos conceptos y situaciones, el algoritmo de aprendizaje profundo de Google se irá ampliando y mejorando. Por supuesto, todos estos cambios de prioridades y la nueva preponderancia del usuario hacen que el apren- dizaje profundo tenga consecuencias importantes en el SEO (Search Engine Optimization) y, por lo tanto, en el posicionamiento de una web. Teniendo en cuenta que esto repercute de manera directa en las ventas, es evidente su importancia. Figura 2. Google trata de emular la inteligencia humana. Fuente: (Osipowa, 2017) El departamento de Google, encargado de investigar sobre el ‘Deep learning’ es ‘Google Brain’ Vivimos un momento histórico, no porque las orga- nizaciones quieran incorporar algo radicalmente nue- vo, sino porque ahora son conscientes de que existe tecnología capaz de procesar todos los datos de los que disponen, hacerlo en escalas de tiempo inferiores a las humanas e incluso proporcionar la inteligencia necesaria. Una de las claves de la IA avanzada está en el aprendizaje. Es cada vez más habitual que les pidamos a las má- quinas que aprendan por sí solas. No podemos per- mitirnos el lujo de pre-programar reglas para lidiar con las infinitas combinaciones de datos de entrada y situaciones que aparecen en el mundo real. En vez de hacer eso, necesitamos que las máquinas sean capaces de auto-programarse, en otras palabras, queremos má- quinas que aprendan de su propia experiencia. La disciplina del Aprendizaje Automático (Machine Learning) se ocupa de este reto y gracias a la tormenta perfecta en la que nos acabamos de adentrar todos los gigantes de Internet han entrado de lleno en el mundo del aprendizaje automático, ofreciendo servicios en la nube para construir aplicaciones que aprenden a partir de los datos que ingieren. Hoy en día el aprendizaje automático está más que nunca al alcance de cualquier programador. Para ex- perimentar con estos servicios tenemos plataformas como IBM Watson Developer Cloud, Amazon Machi- ne Learning, Azure Machine Learning, TensorFlow o BigML.
  • 160.
    143 Entender los algoritmosde aprendizaje es fácil si nos fijamos en cómo aprendemos nosotros mismos desde niños. El aprendizaje por refuerzo engloba un grupo de técnicas de aprendizaje automático que a menudo usamos en los sistemas artificiales. En estos sistemas, al igual que en los niños, las conductas que se premian tienden a aumentar su probabilidad de ocurrencia, mientras que las conductas que se castigan tienden a desaparecer. Este tipo de enfoques se denominan aprendizaje su- pervisado, pues requiere de la intervención de los hu- manos para indicar qué está bien y qué está mal (es decir, para proporcional el refuerzo). En muchas otras aplicaciones de la computación cognitiva los huma- nos, aparte del refuerzo, también proporcionan par- te de la semántica necesaria para que los algoritmos aprendan. Por ejemplo, en el caso de un software que debe aprender a diferenciar los diferentes tipos de do- cumentos que recibe una oficina, son los humanos los que inicialmente han de etiquetar un conjunto signifi- cativo de ejemplos para que posteriormente la máqui- na pueda aprender. Es decir, los humanos son lo que inicialmente saben realmente si un documento es una queja, una instan- cia, una reclamación, una solicitud de registro, una petición de cambio, etc. Una vez que los algoritmos cuentan con un conjunto de entrenamiento proporcio- nado por los humanos, entonces son capaces de ge- neralizar y empezar a clasificar documentos de forma automática sin intervención humana. En la actualidad son estas restricciones o limitaciones de entrenamiento de los algoritmos las que en buena medida limitan su potencia, pues se requieren buenos conjuntos de datos de entrenamiento (a menudo, eti- quetados de forma manual por humanos) para que los algoritmos aprendan de forma efectiva. En el ámbito de la visión artificial, para que los algoritmos apren- dan a detectar objetos en las imágenes de forma au- tomática han de entrenarse previamente con un buen conjunto de imágenes etiquetadas, como por ejemplo Microsoft COCO. Los algoritmos de aprendizaje pro- fundo han sido empleados para que nuestros móviles reconozcan nuestra cara –reconocimiento del rostro-, nuestra voz –reconocimiento de voz- y, lo más recien- te, nuestra forma de hablar –procesamiento de lengua- je natural. En este último caso, no sólo las grandes compañías están investigando en torno a la nueva aplicación del ‘Deep Learning’. Desde 2005, la empresa españo- la Inbenta lleva ofreciendo a sus clientes un ‘sof- tware’ capaz de responder a las dudas de los usua- rios. Unas preguntas que, normalmente, suelen ser informales, y cuyo significado varía dependiendo del contexto. ¿Y cómo hacen eso? “Nos basamos en la teoría del sentido-texto, y básicamente lo que hace es que no se basa en la sintaxis, sino en la semántica. Una frase puede estar sintácticamente correcta, pero semánticamente no decir nada” (Fernández, 2016), nos explica David Fernández, director de desarrollo de Inbenta. Para crear dicho ‘software’, la empresa tiene en plantilla a una serie de filólogas encargadas de mos- trarle a la máquina los significados de las palabras. El ‘software’lo asimila y crean así lo que Fernández denomina un “ cerebro semántico”. “Hay otras empresas que se basan por ejemplo en la estadística a la hora de enlazar estos documentos o de entender lo que estás preguntando”, indica el direc- tor.  Es precisamente lo que hace Google Translate. “No hay ninguna que conozcamos que haya utilizado esta teoría”. El Deep Learning no es la única técnica que se emplea para que la máquina sea capaz de aprender. El área a la que pertenecen las redes neuronales pro- fundas, dentro del campo de la inteligencia artificial, se corresponde con el aprendizaje automático. Un aprendizaje que, como bien ha señalado Fernández, puede conseguirse de múltiples maneras. Sin embargo,  las mayores funciones  que ofrece el Deep Learning han hecho que se convierta en la téc- nica favorita de los gigantes tecnológicos. Pero, ¿y si resulta, al final, que el aprendizaje profundo es sólo una moda? Para que una máquina aprenda, ¿necesita realmente imitar el funcionamiento del cerebro humano? Para algunos, la respuesta es un no. En 2012, Google contrató al célebre investigador Ray Kurzweil para perseguir varias formas en las que los ordenadores aprendieran desde la experiencia, empleando el Deep Learning, además de otras técnicas. El hecho que a medida que los años pasan, también la
  • 161.
    144 tecnología avanza peroesto no significa que no podrá representar un peligro para la humanidad; tal vez no es vista así por muchas personas que se dedican a crear esta tecnología, el área en que se enfocara el presente artículo será el desarrollo de una gran e innovadora tecnología la cual es la denominada Inteligencia Arti- ficial, el cual es un tema que está revolucionando en la historia, el que nos lleva a la pregunta ¿Cómo un robot con un sistema de IA podría ser tan similar a los seres humanos?. Esa es una pregunta que muchos científicos se han ido haciendo durante estos años. Google es quizá la empresa que más apuesta por el desarrollo de Inteligencia Artificial a través de su má- quina DeepMind, la que ya nos mostró varios avan- ces impresionantes, pero este sistema también tiene su lado oscuro tal como pudieron comprobar en una reciente prueba. El Deep Learning utiliza distintas técnicas para desa- rrollar soluciones que repliquen el proceso de pensa- miento humano y lo aplique a la resolución de proble- mas complejos. Para ello, recurre al procesamiento de enormes volúmenes de datos a través de redes neu- ronales. Es la tecnología detrás de los sistemas de reconocimiento facial que ya se están utilizando ac- tualmente en muchas partes del mundo para tareas tan diversas como detectar ladrones en tiendas, identificar conductores y gestionar pagos. El rostro humano es un ejemplo de la complejidad de los desafíos que se pueden enfrentar con el Deep Learning, pero la amplísima variedad de rasgos y ges- tos que puede producir una persona con los músculos de su cara ya puede ser ‘leída’ e interpretada por las máquinas. Científicos del MIT ya han desarrollado al- goritmos basadas en Deep Learning capaces de antici- parse a los acontecimientos. Figura 3. La relación entre maquinas artificiales. Fuente: (Anónimo, 2017) DeepMind es capaz de aprender por sí misma y hasta imitar de forma casi perfecta a los humanos, tanto que al notar que va perdiendo en un juego se enoja y se torna violenta, lo que nos hace temer por las reaccio- nes que podrían tener los robots con IA. La compa- ñía hizo que dos máquinas con el sistema DeepMind compitieran en un sencillo e inocente juego en que debían recoger manzanas desarrollando su propia es- trategia. A la hora de buscar ganar las DeepMind uti- lizaban métodos cada vez más agresivos que incluían el destruir a su oponente de forma violenta. No es que las computadoras comenzaran a golpearse, pero cuan- do la tarea de recoger la mayor cantidad de manzanas posibles se hacía más complicada prefirieron destruir a su oponente utilizando rayos láser para luego robarle las frutas que había recolectado. Una estrategia que le valió la victoria a uno de estos sistemas de Inteligencia Artificial pero que demuestra que esta tecnología no tiene reparos a la hora de dejar de lado el juego limpio y deshacerse de su oponente de formas moralmente cuestionables. Puede parecer anecdótico, pero es bastante preocupante si conside- ramos que cada vez interactuamos directamente con máquinas que cuentan con Inteligencia Artificial y que fácilmente podrían decidir que la mejor forma de proceder sería el dañar o hasta destruir a un humano violando así la primera ley de la robótica. Esperamos que la reciente experiencia con DeepMind de Google cambie la forma en que los expertos en este tipo de tecnología regulan las interacciones entre robots y humanos, no vaya a ser que las máquinas con AI decidan dominar el mundo y esclavizarnos o simplemente eliminarnos. Los investigadores e ingenieros de la rama de Machine Perception de Google han conseguido que la inteligencia artificial de la compañía tome imágenes capturadas en Street View (el sistema de imágenes panorámicas de Google Maps con el que se pueden explorar muchos países del mundo) y las convierta en fotografías que parecen tomadas por un profesional. Aunque dicho así no suena sorprendente, el resultado en imágenes sí que lo es:
  • 162.
    145 Figura 4. Buenaedición fotográfica. Fuente: (elmundo, 2017) Lo de abajo es la imagen, sacada directamente de Street View y, lo de arriba, la reinterpretación de una máquina. La IA de Google asigna ella sola filtros, retoques fotográficos y reajustes al curvado natural de una panorámica para crear una imagen nueva y que pasa por una fotografía hecha con una cámara. Y esta no es la única foto, pues hay toda una galería de muestra. El equipo tras este experimento ha sido capitaneado por Hui Fang y el objetivo era demostrar que se puede acortar el arduo trabajo de la edición fotográfica. Además, con este método se prescinde por completo de la necesidad de que un operador humano introduzca qué filtros o iluminación hay que introducir. Para conseguirlo, sólo hubo que entrenar a la red neural tras la inteligencia artificial para que identificara los elementos más destacados en una foto. El proceso empleado se denominada en inglés Generative Adversarial Networks, algo así como “Redes Generativas Adversarias” en español, y su proceso es sencillo: se enfrenta a dos redes neuronales y se escoge el resultado en el que coinciden más a menudo, que supuestamente sería el mejor. Llevado a este caso, Google hizo que una IA editara fotografías profesionales, retocando iluminación y otros aspectos, para que, luego, otra inteligencia identificara cuáles eran las fotos retocadas y cuáles las originales. Así, e resultado es un software que entiende las capacidades de una buena y una mala foto y que, cuando se la pone a editar, es capaz de mejorar la imagen original. ¿Y cómo comprobaron que las fotografías resultantes tras todo esto eran buenas? Sometiendo a fotógrafos profesionales a un test: tenían que identificar qué fotos eran artificiales y cuáles humanas que estaban entremezcladas. Como resultado, identificaron dos de cada cinco fotografías fabricadas por la inteligencia artificial como profesional y humana. Aunque estas técnicas aún no son infalibles y, sobre todo, son muy costosas de ejecutar, Fang y su equipo creen que en el futuro podrían ayudar a editar fotografías a nivel profesional sin llevar tanto tiempo. Sea como fuere, parece que el Deep Learning ha venido para quedarse. Es posible que dentro de nada nos acostumbremos a pedirle al móvil que nos programe una cita o nos haga una foto, a que nuestra cuenta de Facebook reco- nozca las caras de nuestros amigos o a que en What- sApp aparezcan mensajes publicitarios relacionados con las palabras que solemos escribir. O incluso, por qué no, a tener una conversación con nuestro sistema operativo (al más puro estilo ‹Her›). Y todo ello gracias al progreso de la inteligencia artificial. Al final va a resultar que los robots no son tan malos como los pintan en el cine. 3. CONCLUSIONES Los grandes avances que ha tenido esta tecnología ha sido un beneficio para gran parte de nosotros y que to- davía promete más gracias a compañías como Google que invierten en nuevas formas de procesar nuestra información y haciéndola más accesible y manejable desde una simple instrucción de voz a reconocimiento de caras, manejo de autos etc. Lo que podemos concluir de esto es que es un gran beneficio para la humanidad, pero a la ves un poco de (términos vulgares) vagancia porque para las perso- nas que sepan usar bien, utilizar al máximo esta nueva propuesta se podrá notar un gran crecimiento en la hu- manidad, pero en cambio en otras personas solo será perjudicial porque gracias a esas personas el país done estén estará decayendo más y más. Para finalizar se sabe bien que el avance de la tecnolo- gía no lo frenara nada ni nadie, pero también debemos estar conscientes que por muy bueno que parezca todo esto siempre va a ver una probabilidad de riesgo el cual se pudo analizar en un experimento de Google, sea como sea debemos e4star atentos a los últimos avances tecnológicos sea de cualquier parte del mun- do que venga porque al final de todo somos una mis- ma raza que tal vez por esta tecnología podría verse amansada o podría beneficiarse.
  • 163.
    146 4. REFERENCIAS BIBLIOGRAFICAS Anónimo.(2017).La inteligencia artificial de Goo- gle edita fotos como un profesional. Re- cuperado de : http://www.elmundo.es/ tecnologia/2017/07/19/596e1bfaca- 47412c328b4637.html Anónimo. (2015).TensorFlow, el aprendizaje automá- tico Open Source que hace inteligentes a los productos de Google. Recuperado de: https:// www.xatakandroid.com/mercado/tensor- flow-el-aprendizaje-automatico-open-sour- ce-que-hacen-inteligentes-a-los-servi- cios-de-google Anónimo. (2017).30 amazing applications of deep learning. Recuperado de : http://www.ya- ronhadad.com/deep-learning-most-ama- zing-applications/ Anonimo. (2017).Soluciones de Inteligencia Arti- ficial en Google Cloud. Recuperado de : http://pervasive-tech.com/pervasive-tech- nologies-partner-google-inteligencia-artifi- cial-machine-learning/ Arrabales, R. (2016). Deep Learning: qué es y por qué va a ser una tecnología clave en el futuro de la inteligencia artificial. Recuperado de: https://www.xataka.com/robotica-e-ia/deep- learning-que-es-y-por-que-va-a-ser-una-tec- nologia-clave-en-el-futuro-de-la-inteligen- cia-artificial Chacón,P. (2014).El ‘deep learning’ está de moda: así hacen Google, Apple y Facebook que los ordenadores ‘piensen’ como humanos. Recuperado de: http://www.eldiario.es/ho- jaderouter/tecnologia/software/moda-deep_ learning-algoritmo-inteligencia_artifi- cial_0_275772610.html Farrero,D. (2017). DeepMind de Google desarro- lla IA con imaginación. Recuperado de : https://www.mediatrends.es/a/128430/ deepmind-google-desarrolla-inteligen- cia-artificial-ia-imaginacion/ Brownlee,J. (2016). 8 Inspirational Applications of Deep Learning. Recuperado de : https://machine- learningmastery.com/inspirational-applica- tions-deep-learning/ .Murphy,J. (2016). Deep Learning Applications in Science and Engineering. Recuperado de : https://www.microway.com/hpc-tech-tips/ deep-learning-applications/. Navarro,C. (2017). Deep learning: la nueva era de la inteligencia artificial. Recuperado de : https:// blogs.sas.com/content/sasla/2017/10/17/ deep-learning-la-nueva-era-de-la-inteligen- cia-artificial/. Pastor,J. (2014). Google adquiere DeepMind Tech- nologies, una empresa especializada en IA. Recupearado de : https://www.xataka.com/ robotica-e-ia/google-adquiere-deepmind-te- chnologies-una-empresa-especializada-en-ia Sacchi,A. (2017). Inteligencia Artificial, Machi- ne Learning y Deep Learning: Qué son y cómo están cambiando los negocios y la sociedad. Recuperado de : http://blog. xertica.com/2017/09/19/inteligencia-ar- tificial-machine-learning-y-deep-lear- ning-que-son-y-como-estan-cambian- do-los-negocios-y-la-sociedad/. Vega, G. ( 2017). Inteligencia artificial Aprendi- zaje profundo o el peligro de no saber cómo piensa una máquina. Recupeado de : https:// retina.elpais.com/retina/2017/04/14/tenden- cias/1492164762_707652.html Valensuela,I. (S.F.). El sistema de Inteligencia Ar- tificial de Google mostró su lado oscuro. Recuperado de : https://www.vix.com/es/ tecnologia/176591/el-sistema-de-inteligen- cia-artificial-de-google-mostro-su-lado-os- curo