Second International Conference on Soft Computing, Artificial Intelligence (SAI-2013) will provide an excellent international forum for sharing knowledge and results in theory, methodology and applications of Artificial Intelligence, Soft Computing. The conference looks for significant contributions to all major fields of the Artificial Intelligence, Soft Computing in theoretical and practical aspects. The aim of the conference is to provide a platform to the researchers and practitioners from both academia as well as industry to meet and share cutting-edge development in the field. Authors are solicited to contribute to the conference by submitting articles that illustrate research results, projects, surveying works and industrial experiences that describe significant advances in the following areas, but are not limited to
Artificial Intelligence
AI Algorithms
Artificial Intelligence tools & Applications
Automatic Control
Bioinformatics
Natural Language Processing
CAD Design & Testing
Computer Vision and Speech Understanding
Data Mining and Machine Learning Tools
Fuzzy Logic
Heuristic and AI Planning Strategies and Tools
Computational Theories of Learning
Hybrid Intelligent Systems
Information Retrieval
Intelligent System Architectures
Knowledge Representation
Knowledge-based Systems
Mechatronics
Multimedia & Cognitive Informatics
Neural Networks
Parallel Processing
Pattern Recognition
Pervasive computing and ambient intelligence
Programming Languages
Software & Hardware Architectures
Web Intelligence Applications & Search
Soft Computing
Fuzzy Systems
Neural Networks
Machine learning
Probabilistic Reasoning
Evolutionary Computing
Pattern recognition
Hybrid intelligent systems
Software agents
Morphic Computing
Image processing
E-commerce, e-medicine
Rough Sets
Symbolic machine learning
Wavelet
Signal or Image Processing
Vision Recognition
Biomedical Engineering
Telecommunications
Reactive Distributed AI
Nano & Micro-systems
Data Visualization
Reasoning and Evolution
Recent Trends and Developments
Robotics
Semantic Web Techniques and Technologies
Soft computing theory and applications
S. belles reingeniería tic en la ap. centralización de las tic en la gva sema...COIICV
Ponencia 'Reingeniería TIC en la Administración Pública: La centralización de las TIC en la Generalitat Valenciana'. Jornada COIICV: Nuevas oportunidades en la Administración Pública. Martes 23 de abril de 2013.
Second International Conference on Soft Computing, Artificial Intelligence (SAI-2013) will provide an excellent international forum for sharing knowledge and results in theory, methodology and applications of Artificial Intelligence, Soft Computing. The conference looks for significant contributions to all major fields of the Artificial Intelligence, Soft Computing in theoretical and practical aspects. The aim of the conference is to provide a platform to the researchers and practitioners from both academia as well as industry to meet and share cutting-edge development in the field. Authors are solicited to contribute to the conference by submitting articles that illustrate research results, projects, surveying works and industrial experiences that describe significant advances in the following areas, but are not limited to
Artificial Intelligence
AI Algorithms
Artificial Intelligence tools & Applications
Automatic Control
Bioinformatics
Natural Language Processing
CAD Design & Testing
Computer Vision and Speech Understanding
Data Mining and Machine Learning Tools
Fuzzy Logic
Heuristic and AI Planning Strategies and Tools
Computational Theories of Learning
Hybrid Intelligent Systems
Information Retrieval
Intelligent System Architectures
Knowledge Representation
Knowledge-based Systems
Mechatronics
Multimedia & Cognitive Informatics
Neural Networks
Parallel Processing
Pattern Recognition
Pervasive computing and ambient intelligence
Programming Languages
Software & Hardware Architectures
Web Intelligence Applications & Search
Soft Computing
Fuzzy Systems
Neural Networks
Machine learning
Probabilistic Reasoning
Evolutionary Computing
Pattern recognition
Hybrid intelligent systems
Software agents
Morphic Computing
Image processing
E-commerce, e-medicine
Rough Sets
Symbolic machine learning
Wavelet
Signal or Image Processing
Vision Recognition
Biomedical Engineering
Telecommunications
Reactive Distributed AI
Nano & Micro-systems
Data Visualization
Reasoning and Evolution
Recent Trends and Developments
Robotics
Semantic Web Techniques and Technologies
Soft computing theory and applications
S. belles reingeniería tic en la ap. centralización de las tic en la gva sema...COIICV
Ponencia 'Reingeniería TIC en la Administración Pública: La centralización de las TIC en la Generalitat Valenciana'. Jornada COIICV: Nuevas oportunidades en la Administración Pública. Martes 23 de abril de 2013.
Para llegar a comprender la conexión actual entre el internet y la educación es importante conocer cómo se creó el internet y cómo fue evolucionando hasta convertirse en el fenómeno digital que conocemos hoy en día.
La Unidad Eudista de Espiritualidad se complace en poner a su disposición el siguiente Triduo Eudista, que tiene como propósito ofrecer tres breves meditaciones sobre Jesucristo Sumo y Eterno Sacerdote, el Sagrado Corazón de Jesús y el Inmaculado Corazón de María. En cada día encuentran una oración inicial, una meditación y una oración final.
ROMPECABEZAS DE ECUACIONES DE PRIMER GRADO OLIMPIADA DE PARÍS 2024. Por JAVIE...JAVIER SOLIS NOYOLA
El Mtro. JAVIER SOLIS NOYOLA crea y desarrolla el “ROMPECABEZAS DE ECUACIONES DE 1ER. GRADO OLIMPIADA DE PARÍS 2024”. Esta actividad de aprendizaje propone retos de cálculo algebraico mediante ecuaciones de 1er. grado, y viso-espacialidad, lo cual dará la oportunidad de formar un rompecabezas. La intención didáctica de esta actividad de aprendizaje es, promover los pensamientos lógicos (convergente) y creativo (divergente o lateral), mediante modelos mentales de: atención, memoria, imaginación, percepción (Geométrica y conceptual), perspicacia, inferencia, viso-espacialidad. Esta actividad de aprendizaje es de enfoques lúdico y transversal, ya que integra diversas áreas del conocimiento, entre ellas: matemático, artístico, lenguaje, historia, y las neurociencias.
Ponencia en I SEMINARIO SOBRE LA APLICABILIDAD DE LA INTELIGENCIA ARTIFICIAL EN LA EDUCACIÓN SUPERIOR UNIVERSITARIA. 3 de junio de 2024. Facultad de Estudios Sociales y Trabajo, Universidad de Málaga.
1. La Historia del Internet Diego Armando Rueda Noreña cod.2209503 UNIDAD CENTRAL DEL VALLE DEL CAUCA INFORMATICA APLICADA INGENIERIA INDUSTRIAL II SEMESTRE TULUA-VALLE 2010 Internet El Internet (fusión de las telecomunicaciones e informática) como cualquier proyecto innovador nace como resultado de las necesidades de las fuerzas militares (en este caso las fuerzas Norteamericanas). Luego de su creación su uso paso totalmente militar a uno menos bélico y con fines en pro de la humanidad, es decir a por el gobierno, universidades y otros centros académicos. Desde entonces el internet ha supuesto una revolución sin precedentes en el mundo de la informática y de las comunicaciones. No obstante para que ello fuese una realidad ciertas condiciones eran necesarias, es decir los inventos del telégrafo, teléfono, radio y ordenador sentaron las bases para esta integración de capacidades nunca antes vivida (propagación de la información y un medio de dinamismo entre los individuos independientemente de su localización geográfica). Los primeros pasos hacia el internet fueron dados gracias a J.C.R. Licklider (Massachusetts Institute of Technology) en Agosto de 1962 con su concepto de la red galáctica. En la cual era una red globalmente interconectada atreves de la cual los usuarios podían acceder a información y programas. Gracias a estos resultados y su persistencia en la importancia de la red como fuerza motora del futuro, sus sucesores continuaron con su trabajo para llevarlo hasta como conocemos hoy el internet. Por ello en Julio de 1961, Leonard Kleinrock publicó desde el MIT el primer documento sobre la teoría de conmutación de paquetes. Lo cual repercuto en la manera de enviar comunicaciones e información atreves de la red (antes se hacia por medio de circuitos). Sin embargo a pesar de los avances, un gran paso fundamental que caracterizo a la internet como tal, era lograr dialogar dos o mas ordenadores entre si. Para explorar este terreno, en 1965, Roberts conectó un ordenador TX2 en Massachusetts con un Q-32 en California a través de una línea telefónica conmutada de baja velocidad, creando así la primera (aunque reducida) red de ordenadores de área amplia jamás construida. El resultado del experimento fue la constatación de que los ordenadores de tiempo compartido podían trabajar juntos correctamente, ejecutando programas y recuperando datos a discreción en la máquina remota. No obstante la línea telefónica de conmutación de circuitos no era la apropiada para la función que era aplicada, lo cual reafirmaría la importancia y necesidad de la conmutación de paquetes en la red. Ya atreves del tiempo, comenzaron a llegar las mejores como resultado de la necesidad y competencia en las diferentes universidades y empresas de comunicaciones, por ejemplo DARPA lanzó un RFQ para el desarrollo de uno de sus componentes clave: los conmutadores de paquetes llamados interface message processor. A causa del temprano desarrollo de la teoría de conmutación de paquetes de Kleinrock y su énfasis en el análisis, diseño y medición, su Network Measurement Center (Centro de Medidas de Red) en la UCLA fue seleccionado para ser el primer nodo de ARPANET. Todo ello ocurrió en Septiembre de 1969, cuando BBN instaló el primer IMP en la UCLA y quedó conectado el primer ordenador host .El proyecto de Doug Engelbart denominado Augmentation of Human Intelect (Aumento del Intelecto Humano) que incluía NLS, un primitivo sistema hipertexto en el Instituto de Investigación de Standford (SRI) proporcionó un segundo nodo. El SRI patrocinó el Network Information Center , liderado por Elizabeth (Jake) Feinler, que desarrolló funciones tales como mantener tablas de nombres de host para la traducción de direcciones así como un directorio de RFCs ( Request For Comments ), y así, a finales de 1969, cuatro ordenadores host fueron conectados conjuntamente a la ARPANET inicial y se hizo realidad una Internet realmente joven. No obstante este internet precoz requirió de los conocimientos viejos de red y de nuevas investigaciones sobre esta, tal cual como continua ocurriendo hoy para su continua mejora y transformación a las necesidades actuales. Al mismo tiempo que la tecnología Internet estaba siendo validada experimentalmente y usada ampliamente entre un grupo de investigadores de informática se estaban desarrollando otras redes y tecnologías. La utilidad de las redes de ordenadores (especialmente el correo electrónico utilizado por los contratistas de DARPA y el Departamento de Defensa en ARPANET) siguió siendo evidente para otras comunidades y disciplinas de forma que a mediados de los años 70 las redes de ordenadores comenzaron a difundirse allá donde se podía encontrar financiación para las mismas. Por ejemplo el Departamento norteamericano de Energía (DoE, Deparment of Energy ) estableció MFENet para sus investigadores que trabajaban sobre energía de fusión, mientras que los físicos de altas energías fueron los encargados de construir HEPNet. Los físicos de la NASA continuaron con SPAN entre otros aplicaciones que tuvo la internet en el diario vivir. No obstante, a pesar de todos los avances y herramientas desarrolladas pro los diferentes grupos, equipos y colaboradores. El internet es un medio dinámico que evoluciona a la par con su contexto o realidad, es por esta razón que gracias a los nuevos cambios y necesidades de la humanidad la internet se redefinirá y reestructurará para crear la internet2, es decir el futuro de la red de redes la cual está formado actualmente por un consorcio dirigido por 206 universidades que junto a la industria de comunicaciones y el gobierno están desarrollando nuevas técnicas de conexión que acelerarán la capacidad de transferencia entre servidores; cuyos fines o objetivos específicos son el desarrollo conocimiento e investigación. Además buscan aprovechar aplicaciones de audio y video que demandan más capacidad de transferencia de ancho de banda entre otras herramientas.