1. Prospectiva en computación e
informática.
Memoria Conferencia. Ing. Vicente Suárez Zendejas.
CECEC 97. Grupo CCEA.
Introducción.
Indudablemente que un sinnúmero de hombres de ciencia ha cambiado nuestro mundo, a través de la
ciencia y la tecnología. No damos por descontado los cambios causados por las ciencias sociales y las
humanidades que también han sido un factor de gran importancia en el desarrollo del homo sapiens. Sin
embargo, es en la segunda mitad del siglo XX cuando el desarrollo de las ciencias exactas ha llevado a la
tecnología a marcar el tictac de la vida de las sociedades. (Lewis, 1995).
El cúmulo de información que el ser humano había almacenado hasta 1900, fue doblado para 1950. Para
1980 nuevamente se duplicó. Actualmente, este acervo se dobla cada cinco años y expertos en desarrollo
de la ciencia han pronosticado para el 2020 una duplicación del conocimiento en períodos de 73 días
(Appleberry, 1995, Nájera, 1997). Los cuestionamientos y reflexiones que surgen de estos pronósticos
pueden darse en dos extremos:
1. Cumplir el sueño de la sociedad americana de los 50 que veía en el futuro una cultura
cuya productividad se basaba en la tecnología, dando así al hombre la oportunidad de
llevar una vida holgada y “libre” con una mejor administración del tiempo con fines de
autosuperación.
2. En el otro lado de la balanza, cualquier predicción escalofriante hecha desde la ciencia
ficción podría volverse realidad, donde algunos ven a Bill Gates como el actual Dr.
Victor Frankenstein.
2. Al entrar en el tercer milenio, las fuerzas más críticas que formarán la intersección entre la cultura y las
ciencias informáticas serán de orden social no de orden técnico; tan sólo tómese el ciberespacio como en
realidad es; quien suponga que es la denominación de una metared está rotundamente equivocado, en su
lugar, se debe considerar como una nueva dimensión para el desarrollo del discurso humano. Por lo
tanto, este trabajo versa sobre informática, computación y sus repercusiones sociales en el futuro
inmediato y a mediano plazo. Entrando en detalle, revisaremos cuatro áreas de dominio: hardware,
software, estándares y nuevas tecnologías.
Hardware.
Hablar de hardware es hablar de varios elementos, pero cualquier conocedor del tema sabe que la
“inteligencia” de las computadoras y por lo tanto su poder real reside en la CPU. La evolución de la
tecnología de las computadoras en el siglo XX es impresionante. Grandes fortunas se hicieron gracias a
la venta de microprocesadores y el hardware que gira alrededor de ellos. El circuito integrado es fruto de
los sofisticados avances de la tecnología, la fabricación de varios componentes en una placa de silicio
permitió construir circuitos completos con todos sus elementos y conexiones en un espacio
microreducido.
En el pasado cercano...
En la segunda mitad de los 80, los chips de Intel tenían más de 100,000 transistores y un juego de
instrucciones alrededor de 100 mnemónicos.
Escala # de transistores
Generación 01 – 10
SSI (3) 100
MSI 1,000
LSI (4) 10,000
VLSI 100,000
VHLSI 1 millón
3. ULSI + 10 millones
GSI ???
Se piensa que para el año 2000 tendrán más de 1,000 millones de ellos. Los procesadores Pentium® II
“corren” a 233, 266 y 300 MHz en aplicaciones de negocios actualmente.
Micro Alpha MIPS PowerPC PA7100 Pentium 68040
21164 10 000 620
Fabricante Digital MIPS Tech IBM y HP Intel Motorola
Equipment Motorola
Tipo RISC RISC RISC RISC CISC CISC
Anchura registros de 64 32 32 32 32 32
enteros
Transistores 9.3 6.4 7 0.85 3.1 1.2
(millones)
Velocidad 300 200 133 100 100 25
(MHz) 1200 mips
Actualmente...
El procesador de Intel, el Pentium® II, introduce un nuevo nivel de desempeño que incluye gran
operabilidad, capacidad extendida de multimedios y capacidad extendida en el manejo de
comunicaciones (Internet).
4. ü Operabilidad: el Pentium II contiene circuitería de autoprueba y monitoreo que minimiza
los tiempos muertos y provee información valiosa para la administración del software.
Asimismo ha respondido a la demanda de distintas plataformas, pudiendo trabajar con
excelencia en la computación de escritorio, como servidor o como estación de trabajo;
obviamente cubriendo las demandas de sistemas operativos como Win 95, Win NT y Unix.
ü Por encima de las capacidades del procesador interconstruído, se encuentra la ventaja de
sacar ventaja del software diseñado para la tecnología Intel MMX que incrementa el
desempeño a pantalla completa, vídeo total, color mejorado, gráficas a mayor resolución. Esto
se logra por medio del mejoramiento de los procesos de comprensión y descompresión de
vídeo, la manipulación de la imagen, encripción y procesamiento de E/S.
Lo anterior se logra por medio del proceso SIMD, Single Instruction Multiple Data o Instrucción Única
Múltiples Datos; las aplicaciones actuales de multimedios y comunicación frecuentemente usan ciclos
repetitivos que ocupan menos del 10% del código de toda la aplicación, pero que ocupan más del 90%
del tiempo de ejecución. El proceso SIMD permite que una instrucción ejecute la misma función en
múltiples momentos de ejecución, reduciendo así los ciclos intensos de cómputo que ejecuta el chip en
aplicaciones de vídeo, audio, gráficas y animación.
Al mismo tiempo ha integrado 57 nuevas instrucciones específicamente diseñadas para
manipular y procesar datos de vídeo, audio y gráficas más eficientemente. Estas instrucciones
están orientadas para las secuencias altamente repetitivas y paralelas que frecuentemente se
encuentran en operaciones multimedios. A estas características se les denomina como técnicas
de ejecución dinámica.
Cinco minutos en el futuro...
Existen diferentes retos y tendencias en el futuro.
1. Hablar del futuro de los microprocesadores, es hablar de romper barreras en velocidad,
número de transistores, poder de las instrucciones y el aumento de capacidades no “naturales”
5. en un chip. Estas tendencias continuarán por lo menos hasta el 2007. Hablaremos de chips
capaces de trabajar a frecuencias de reloj de gigahertz y que contendrán cientos de millones e
incluso billones de transistores.
2. Los diseñadores de estaciones de trabajo y servidores tienen que vencer el problema del
puente en velocidad que se ha abierto entre los procesadores de memoria y los procesadores de
CPU. El resultado ha sido que los caches no funcionan igual que antes. Cualquier mejora en
este caso se deberá dar en los chips DRAM y los propios microprocesadores. De otra manera el
incremento de velocidad no será significativo. Asimismo, la capacidad de estos chips
aumentará, hasta límites no imaginados, por ejemplo NEC ha anunciado la aparición de chips
DRAM de 4 Gigabits en febrero de 98 y estar disponibles comercialmente antes de 2001. Esto
nos da una somera idea del tipo de computadoras que tendremos en nuestros escritorios en el
próximo siglo. Un sistema decente actualmente conlleva 16 MB de RAM, la tendencia es hacia
256 MB en la línea del 2000 y continua hacia el 1GB de RAM antes de 2010.
3. El hardware en general, a un plazo mayor del 2010, se volverá humanware o seguramente
otro término, pero igual significará la creación de interfaces que se adapten a la necesidad
humana corporal, en todo la extensión de este significado. Los primeros pasos ya se dieron:
monitores ecológicos, teclados ergonómicos, fax-modems inteligentes. Esto significa que los
dispositivos E/S del ordenador trabajarán con los dispositivos E/S del ser humano en
consonancia.
3.
Desgraciadamente....
... hablando del Pentium ...... El chip no era perfecto. Ninguno lo es.
Andrew Grove. Presidente de Intel Corp
Software.
Pasado/presente.
El hardware sin el software es un montón de chatarra y con la chatarra no se puede hacer gran cosa, sin
embargo, el software chatarra es la excepción. En la era antediluviana de las máquinas, el software no
6. existía. Cuando los primeros lenguajes hacen su aparición, la programación que se da no forma un
modelo, no existe una teoría, no hubo reglas ni procedimientos definidos, tan sólo una sintaxis
dominante.
En 1968 la comunidad computacional fue llamada a una reflexión en las perspectivas de programación.
El holandés Edsger W. Dijkstra, investigador de la Burroughs Corporation publicó "Notes on Structured
Programming", su argumentación mencionaba:
1. La mayoría de los programas eran innecesariamente comple-jos debido a la
falta de una estructura matemática rigurosa.
2. La mayoría de los errores en programación son predecibles.
3. El uso indiscriminado de sentencias tipo GOTO convierten un programa en
un plato de espagueti.
Con base en estos principios se requería el cambio de concepto; la programación es
una ciencia no un arte. Es aquí donde se marca el nacimiento de una nueva manera de
programar. Dijkstra propuso el uso de tres tipos de estructuras de control:
Secuencia lineal. Lo que significa hacer una cosa tras de otra. Selección. En la que el
programa ejecuta una operación de entre varias posibles. Repetición. En la cual se
ejecuta una operación mientras que cierta condición sea válida.
En los años últimos la Object Oriented Programming ha tenido gran demanda en los
círculos de programación. Pero debe hacerse aquí un paréntesis. La OOP empezó en
1967. Los primeros lenguajes diseñados para trabajar así fueron el Simula y el
Smalltalk. Aunque su uso nunca ha sido en producción comercial, sino en ejercicios
meramente académicos son los predecesores del Pascal, C, BASIC y otros tantos
lenguajes que han incorporado el objeto como centralismo.
7. Fue con Dijkstra que se dio el inicio de un incipiente paradigma denominado la programación
estructurada. Desgraciadamente, la exactitud o rigidez que pudiera obtenerse de disciplinas como la
ingeniería o la informática no se añadieron a este pseudomodelo. Con la OOP, la teoría acompañante es
profunda tanto que puede separarse de la práctica y formar un estudio particular. En la práctica, los
resultados toman causes diferentes; lenguajes como Pascal con TurboVisión y C++ forman un bloque
contra lenguajes como Prolog, LISP y otros.
El desarrollo de sistemas aumenta el grado de complejidad en sus bases y surgen modelo y herramienta
auxiliares como la Ingeniería de Sistemas, la Ingeniería de Software, el modelo de Cascado, la
Administración del Riesgo.
Los programas de menos de 100, 000 líneas se consideran de “juguete”, el promedio en los 80 es de
300,000 a 1 millón de líneas y para los 90 aumenta a los 5 millones de líneas. Dado el avance y adhesión
a las interfaces gráficas, los programas se tornan visuales, orientados o basados en objetos y con
principios estructurados.
Cinco minutos en el futuro...
1. Las tendencias al fin de los 90 e inicio de los 00 es la unión de procedimientos,
estándares, códigos. Por ejemplo, la aparición de normas como ODBC en la
comunicación remota de bases de datos; el estándar del SQL, el posible reemplazo del
ASCII por UNICODE, en comunicaciones el uso de tecnología TCP/IP, HTML y por
supuesto Java.
2. Probablemente el principal cambio que en realidad es una necesidad es la unificación de
un marco de referencia y una estructura racional que guíe la teoría computacional de
manera clara y contundente, de este modo los modelos estructurado, funcional, lógico,
paralelo y el OOP podrían integrarse de manera eficiente y proveer una base para alguna
nueva rama de la ingeniería que funcionara como soporte para transformar las
especificaciones en diseños y los diseños en programas y de este modo la computación
se convertiría positivamente en una ciencia y el desarrollo de software en una ingeniería.
8. 3. El concepto de programa almacenado de von Newmann que ha guiado generaciones de
tecnología de sistemas de software cambiará de modo fundamental a través del
desarrollo de aproximaciones paralelas.
4. Java se levanta como un estándar en la comunicación e incluso invade el campo de los
multimedios y la programación tradicional. A su lado ADA95 responden a la necesidad
de alta confiabilidad, dada la creciente dependencia de las empresas al software. Esta
presión nace de empresas donde la seguridad es crítica, de la milicia y de ámbito
financiero. Al mismo tiempo, las funciones de manipulación de información en tiempo
real crecerán en todos los dominios. Estos dos lenguajes incluirán técnicas y
herramientas de prevención de errores, inspección y la profesionalización del área de
evaluación y pruebas.
Muestras del futuro.
Ha continuación se analizan diferentes campos que serán severamente afectados por el desarrollo de la
tecnología y con gran impacto en la vida del ser humano.
La medicina y las computadoras.
IEEE.
La retina, como el sistema nervioso no puede regenerarse correctamente cuando sufre algún daño o se
deteriora. Los receptores sensitivos a la luz que se encuentran en la parte trasera de la retina pueden sufrir
enfermedades como la degeneración macular o la retinitis pigmentosa que impiden la visión como la
conocemos de manera permanente. Las soluciones eran pobres y en la mayoría de los casos, nulas, sin
embargo, a través de la tecnología se vislumbran nuevas esperanzas.
Los intentos más agresivos en rehabilitación generalmente producen mejoras modestas. En caso de
degeneración, algunos dispositivos especiales ópticos pueden ayudar un poco pero a largo plazo no hay
gran mejoría. La terapia genética molecular parece ser más prometedora para limitar el daño o recobrar la
9. función, pero esta técnica permanece como un prospecto distante. Actualmente, las terapias nutricional y
médica resultan en alivio limitado. Por lo que en el mediano plazo, los implantes electrónicos son la
mejor opción de alivio de problemas retinales. Un auxiliar artificial retinal o prótesis puede ser viable
para muchos pacientes.
Por primera vez, la microfabricación de circuitos VLSI hace posible la creación de dispositivos capaces
de recibir señales y transferirlas sobre distancias minúsculas y de hacer de manera totalmente controlada
de modo que sea compatible con la operación y anatomía del sistema nervioso.
Los participantes de este proyecto son
El Massachusetts Institute of Technology's Research Laboratory of Electronics;
El Draper Laboratory, Cambridge, Mass.;
El MIT Lincoln Laboratory; y
El Massachusetts Eye and Ear Infirmary Medical School's Department of Ophthalmology.
Ellos están creando estos dispositivos e interfaz compatibles con el ojo humano y adecuados para una
prótesis visual. El implante consiste en un arreglo de fotodiodos y un chip estimulador abrazados con uno
de los extremos de una tira flexible de cierto material; el otro extremo de la tira tiene algunos electrodos.
El diminuto sistema se alimenta de energía y señales cuando el rayo láser modulado golpea el conjunto
de doce fotodiodos. Los diodos encienden al chip estimulador, el cual direcciona la corriente a electrodos
individuales. Estos electrodos están acomodados en el extremo trasero de la retina. La energía necesaria
para hacerlos funcionar es de menos de ¼ de miliwatt en los prototipos actuales.
Conexión entre cerebro y silicón.
Robert M. Muench
10. Este experto cree que el cerebro humano tiene un único problema y es su velocidad. Las computadoras
tienen también un problema, no son flexibles. Por lo que según su lógica, el siguiente paso es combinar
ambos sistemas y utilizar el silicón para pensamientos no muy importantes pero que si consumen tiempo
y dejar la interconexión paralela masiva para cosas creativas. Esto se puede lograr por medio de
computadoras análogas.
Las micromáquinas se convertirán en armas.
Richard David Thompson.
La nanotecnología molecular es una de las pormesas más dramáticas en el futuro a mediano plazo. El
siguiente paso será reducir notablemente el tamaño de las máquinas por medio de la “construcción” de
una “lluvia” o “niebla” compuesta por aire, pero en lugar de agua se llenarían los huecos con trillones de
nanomáquinas del tamaño de un gérmen, llamadas foglets. (Storrs, 1997, Universidad Rutgers).
Las tareas que pueden llevar a cabo son inimaginables, desde reparación de objetos, hasta creación de los
mismos, poner techos, usarse en medicina, etc. Los utensilios para armarlas van desde láseres especiales,
microscopios electrónicos, ténicas electroquímicas, etc. Sin embargo...
Las micromáquinas tendrán tanto potencial que la milicia abusará de ellas y seguramente lo harán
muchos otros usuarios. Por ejemplo, una micromáquina puede convertirse en una máquina diabólica que
simplemente haga cortes en los tejidos o interfiera con los nervios y todo esto con poca posibilidad de
detección. Su tamaño se traduce en un ataque microscópico pero acumulativo, dando así, tiempo al
asaltante de escapar.
Una nube de micromáquinas puede usarse como gas nervioso en los asuntos de guerra. Esto es pesimista
pero puede ser el inicio de técnicas de producción masivas que eventualmente debiera usarse para el
bien.
Almacenamiento holográfico.
Jeffery Hugh Kavanaugh
Este sistema se convertirá en el siguiente gran avance de la computación, el almacenamiento holográfico
11. inició como una tecnología obscura, considerada como un descubrimiento histórico menor, sin embargo,
el desarrollo de sensores ópticos de bajo costo que están sujetos a menor ruido y el desarrollo de un
sistema de rayo referencial que no requiere de partes movibles han hecho que su consideración esté en la
mente de muchos investigadores y científicos. La posibilidad de ser usado como memoria virtual
permitiría a los programas considerablemente grandes ser utilizados de manera concurrente con otros.
Se han escuchado rumores de que este almacenamiento ya está en uso en centros de supercomputadoras.
La tecnología podría estar disponible en los siguientes cinco años, definitivamente probaría que es una
tecnología con futuro comercializable. Desafortunadamente, parece que hay suficientes intereses
personales que vienen del mercado de los discos duros que impiden o bloquean estos esfuerzos, debido a
que esta tecnología los volvería obsoletos inmediatamente.
Reflexión sobre las muestras.
Históricamente el avance de la tecnología ha dado soluciones a diferentes problemas sociales. Sin
embargo, los nuevos problemas creados por nuestra tecnología requieren soluciones legales, e incluso
morales no técnicas. La preocupación en campos como el comercio, el pago de impuestos, la privacidad,
la pornografía, la libertad personal, los derechos humanos y la seguridad nacional crece y demanda
respuestas. Observen finalmente estas predicciones que van más allá del 2020 y que cierran la
prospectiva, pero siembran nuevas interrogantes.
& Alguno gigantes se unirán contra el teragigante Microsoft.
& La ingeniería genética unida a otras disciplinas reemplazará a la ingeniería electrónica,
porque la Ley de Moore en 50 años daría una densidad de 250, cantidad de elementos que la
física no puede aceptar.
& Las computadoras serán como organismos vivientes.
& El Internet evolucionará como el organismo viviente más grande, cubriendo la tierra como
la columna vertebral de la noosfera de Pierre Teilhard de Chardan.
& Las PCs o sus nietos serán los brazos y manos del sistema, expandiendo nuestra memoria
más allá de 1000 GB.
& Las computadoras comprenderán el lenguaje humano, manejando un alfabeto de 16 dígitos,
16 caracteres de puntuación, 32 fonemas básicos y 64 símbolos gráficos.
12. Indudablemente que la ley de las consecuencias inesperadas gobierna cualquier revolución. Existen
efectos colaterales tanto técnico, como sociales, políticos, etc. Existe el peligro de la deshumanización.
Desde el surgimiento del sistema capitalista hace más de dos siglos, los países y sus sociedades se han
envuelto en una conciencia tecnológica, productivista y racionalista que permite el avance material de los
individuos. Podemos decir que las ideas preconcebidas sobre el desarrollo tecnológico y material
positivistas se han alcanzado e incluso superado.
Pero, el problema que acompaña este avance tecnológico-material es la alienación, y cosificación del ser
humano. No se ha logrado un avance similar en la inteligencia y sentimientos de la sociedad, incluso nos
atrevemos a decir que hemos retrocedido. Como planteamos anteriormente, estamos viviendo una cultura
de la información y ahora agregamos de falta de sabiduría y reflexión.
Desde el Renacimiento, nos hemos quedado con la información y el conocimiento que ésta genera, pero
perdemos sabiduría. Esto ha llevado al conflicto con la persona, con la naturaleza y con todo lo que nos
rodea. Sí, los avances de la tecnología son herramientas de alta eficiencia, pero, ¿cómo las usamos?
Aparece la pregunta ¿qué hacemos con las máquinas? del escritor de ciencia-ficción Ray Bradbury. Las
máquinas y los procedimientos alrededor de ellas parecen generar un avance tecnológico que da confort,
facilita las tareas, ahorra tiempo y con estos sueños artificiales parece que olvidamos con mucha rapidez
o facilidad de dónde venimos, adónde vamos y cuál debería ser nuestra misión. Perdemos nuestra
conciencia.
Para muestra un botón...
En la universidad de Pittsburg, algunos investigadores han encontrado que el
surfear por Internet puede ser tan adictivo como las drogas, el alcohol o el
juego. En un estudio de más de 400 hombre, los investigadores encontraron
que la adicción por Internet atrapaba a algunas personas hasta por más de 40
horas a la semana, las actividades que realizan son juegos interactivos y
discusiones en grupo.
13. Uno de los casos era un adolescente de 17 años tan adicto a Internet que sus
padres tuvieron que internarlo en un hospital para adicciones para recibir un
tratamiento de 10 días. Una mujer descrita por amigos, familiares como el ama
de casa perfecta, esposa y madre llegó a tal adicción que dejó de limpiar,
cocinar, atender a su esposo e hijos porque pasaba más de 12 horas al día
dentro del Internet. Finalmente se divorció.
La psicóloga Kimberly Ypung, profesora asistente en la universidad
mencionada encontró que el 76% de los sujetos pasaban un promedio de 40
horas a la semana dentro de Internet. De los 396 personas que cumplieron con
el criterio de adicción 157 eran hombre, 293 mujeres. El promedio de edad de
los hombres era de 29 y de las mujeres de 43. El grupo más grande de adictos
era gente que no trabajaba fuera de casa, o amas de casa, estudiante. En la
presentación anual de la asociación americana de psicología en Toronto, 82%
de los adictos dijeron que llegaron a esta adicción poco a poco. La doctora
describe a Internet como cualquier sistema como America Online,
Compuserve, Prodigy, etc.
Se descubrió definitivamente que Internet puede hacer una ruptura en la vida
ocupacional, social, académica y financiera al igual que otras adicciones
patológicas como el juego patológico, desórdenes en la comida o el
alcoholismo.
Conclusión final.
De acuerdo con una fuente del Web “muy confiable”, Sócrates despertó del
sueño de siglos inducido por la cicuta hace unos días y no perdió tiempo en
unirse a la moda de buscar la verdad virtual en el Internet. Inmediatamente saltó
a la red mundial de computadoras, sacando ventaja del último grito de la
tecnología en velocidad y poder de los motores de búsqueda en el Internet. El
objetivo era la búsqueda de la VERDAD.
14. “Esto está muuuuucho mejor que la Cueva” exclamó, mientras gozaba un
McTrio de McDonalds. (Por si lo han olvidado, Sócrates utilizaba la metáfora de
la Cueva, en la búsqueda de la comprensión en uno de sus diálogos.
Desgraciadamente fue ejecutado por el crimen de enseñar a los jóvenes cómo
hacer preguntas. “He encontrado miles de tips” decía apasionadamente, mientras
se removía en su silla ergonómica. “Esto vale los siglos que estuve dormido”
Veamos que es lo que se encuentra, al colocar la palabra VERDAD (TRUTH en
Inglés), en el famoso motor de búsquedas Infoseek.
“Esto es demasiada verdad” Sócrates murmuró y se preguntó “¿Ahora, tendré
que abrir todos estos libros, leerlos y resumir los puntos cruciales?” A Sócrates
le pareció que su ratón le decía “Sí, esto es Internet, estás surfeando”. “¿Estoy
surfeando?” le preguntó al ratón. “¿Esto es lo que llaman surfear?” El ratón,
siguiendo la paciencia aprendida del gran maestro, señaló la lista de web sites y
desplegó:
La computadora te ahorra el trabajo de abrir todos esos archivos, un programa
de inteligencia artificial jerarquiza los archivos, del más valioso al menos
valioso, de esa manera, puedes concentrarte más o menos en los 10 primeros.
Sócrates movió el ratón e hizo clic nuevamente. "!Qué gran idea!" exclamó.
"¿Inteligencia artificial? Desearía que hubiera existido cuando yo era el Bill
Gates de mi era. Seguro me habría ahorrado mucho trabajo en esos diálogos... y
todo ese deambular y preguntar”.
"El principio de la lista es... Chipper's Home Page. ¿Es algún filósofo o gurú de
la mercadotecnia como Gates? Después de una hora de surfear, Sócrates se
dirigió al ratón nuevamente... “Con todo el respeto a tus nuevas tecnologías, no
encuentro mucho de verdad en estas páginas. He encontrado algunos poemas
interesantes de una revista de viajes junto con lo que parece ser la letra de una
15. canción de un grupo llamado Brutal Truth (Verdad Brutal). Ni aún en mis días
más salvajes, amenace a los jóvenes con la verdad brutal. Esto es muy
extremista. Empiezo a creer que la idea de mi cueva era mejor. Quizás le pueda
vender esta idea a Bill Gates y entonces, él cree un nuevo motor de búsquedas
llamado la Cueva o la Hot Cave”.
“Por curiosidad, use el infoseek, para saber como se han conservado mis escritos
al paso de los siglos y me agrado encontrar 28,650 páginas sobre mi nombre:
Sócrates. Pero, cuando busqué a Bill Gates encontré 49,982, y en el de
Madonna, encontré 57.633. ¿Quién es Madonna? ¿Un filósofo?”. Es obvio que
necesito contratar un publicista y abrir mi propia página de Internet”. Sócrates
detuvo la plática cuando el protector de pantalla de Independence Day tomó el
lugar en la pantalla. Entonces se sobresaltó. “Creo que tengo suficiente por el
momento, gracias. ¿Surfear, realidad virtual, inteligencia artificial? y ahora, en
lugar de troyanos tenemos extraterrestres. Me regreso al templo donde puedo
buscar la verdad sin electricidad“. Sonriendo le dijo al ratón “si tengo suerte,
desde allá haré contacto con MTV para hacer un programa de Sócrates
unplugged”
Zendejas, 1996.
Es claro que el nuevo orden se está gestando. La tecnología ofrece muchas ventajas en el manejo de
información por menos esfuerzo. (Gates, 1995). Pero, debemos equilibrar la fe en la tecnología y la fe en
nosotros mismos. La mayoría de las veces, la sabiduría no viene del manejo o existencia de información,
de la eficiencia o de la optimización, sino de la aplicación de principios básicos de trato humano, de la
reflexión personal.
Aquí subyace la misión de los futuros profesionales de la computación y de la informática en el inicio y
continuación del próximo milenio: dar cara a las consecuencias de la era de la información y e la
revolución de las computadoras. Seguramente la profesión que ha sido capaz de desarrollar la tecnología
también será capaz de reducir el costo social y sus efectos negativos.
16. ü Educar a la sociedad en el uso de computadoras sacando ventaja de su facilidad, pero
teniendo como meta la correcta aplicación de sus conceptos y productos en asociación con las
ciencias sociales.
ü Buscar la excelencia humanizante que es la herramienta que permite tratar al ser
informatizado como ser humano dado que la tecnología y su era están al servicio del mismo.
Bibliografíá.
APPLEBERRY, James. 1995. Major trends influencing higher education. Seminario
Interamericano sobre la Evaluación de la Calidad y Gestión del cambio. México: ANUIES.
DRUCKER, Peter. 1996. Las nuevas realidades. Nueva York: SAMS.
EDS. 1997. Introductory Carousel: Life in the Information Age.
http://www.eds.com/communit/smithson/ecm50000.shtml New York: EDS.
GATES, Bill. 1995. Camino al futuro. México: McGraw Hill.
LEWIS, Ted. 1995. Living in real time A. Computer magazine, Vol. 28 No. 9. Septiembre. New
York: IEEE Computer Society.
NAJERA, Jesús M. et. al. 1991. La UVM y su Modelo Educativo Siglo XXI. México: EGUM.
SUÁREZ, Vicente. 1996. Introducción al Ordenador. México: Grupo CCEA.
ZENDEJAS, Olga. Boletín CCEA, Vol. 4 No. 3. Marzo, 1996. México: Grupo CCEA.