En esta presentación podrás encontrar las diferencias entre Datos Analogicos y Datos Digitales. Ademas de las problematicas sociales y eticas que traen consigo.
Presentación sobre los Modelos ER y Relacional preparado como parte de la materia de Diseño y Administración de Base de Datos de la carrera de Informática de la UMSA.
La Arquitectura Empresarial es una disciplina básica para la gerencia o gestión de la información de las organizaciones. Esta determina la alineación entre el negocio y las tecnologías de información para incrementar la productividad de la empresa y la satisfacción de sus empleados y principalmente de sus clientes.
analisis sintactico en un compilador
gramaticas de libre contexto
ejemplos de gramaticas de libre contexto
como crear una gramatica de libre contexto
funciones de una analizador sintatctico
dificultades para crea una gramatica de libre contexto
En esta presentación podrás encontrar las diferencias entre Datos Analogicos y Datos Digitales. Ademas de las problematicas sociales y eticas que traen consigo.
Presentación sobre los Modelos ER y Relacional preparado como parte de la materia de Diseño y Administración de Base de Datos de la carrera de Informática de la UMSA.
La Arquitectura Empresarial es una disciplina básica para la gerencia o gestión de la información de las organizaciones. Esta determina la alineación entre el negocio y las tecnologías de información para incrementar la productividad de la empresa y la satisfacción de sus empleados y principalmente de sus clientes.
analisis sintactico en un compilador
gramaticas de libre contexto
ejemplos de gramaticas de libre contexto
como crear una gramatica de libre contexto
funciones de una analizador sintatctico
dificultades para crea una gramatica de libre contexto
Trasparencias de la charla Machine Learning for Dummies del grupo Meetup de Azuges @ 22 de Noviembre de 2016
Ponentes: Rodrigo Cabello y Carlos Landeras
Sí yo he podido aprender algo de eso llamado IA... ¡Créeme, tú también puedes!Plain Concepts
¿Quieres empezar a aprender un poco sobre IA, pero te confunden tantos términos raros? Te cuesta distinguir entre IA, Machine Learning, Deep Learning, Redes Neuronales y demás palabrejas? ¿No sabes ni como empezar a meterte en este mundillo? ¿Ni que lenguajes o frameworks existen? ¡No té preocupes! ¡Yo estaba como tú! En esta charla te contaré como yo he aprendido algo de este mundillo y te contaré los fundamentos básicos para que puedas meterte en él sin miedo! ¡Créeme, si yo he podido... tú también podrás!
Azure4Research - Big Data Analytics con Hadoop, Spark y Power BIAlberto Diaz Martin
n esta sesión, veremos el desarrollo de un proceso de AI con Azure Databricks que nos ayudará a trabajar con datos estructurados y no estructurados, a obtener una visión profunda del algoritmo a implementar e incluso crear un ciclo aprendizaje en tiempo real. El objetivo será adentrarnos en un proyecto de AI para preparar los datos, realizar el análisis que nos permita elegir un algoritmo, entrenar un modelo y ejecutar una predicción de dicho modelo. Todo esto con mucho Big Data y Power BI como herramienta de Reporting.
Python - Lenguaje de programación para Ciencia de DatosRoman Herrera
Uso de Python para procesamiento de Datos
* Python como lenguaje de programación para Data Science
* Herramientas para trabajar con Python (Jupyter Notebooks, Google Colab)
* Librerías para extender la funcionalidad de Python (Pandas, NumPy, Scipy, etc)
* Uso de Pandas para análisis de datos, ejercicios
Web Semántica de la teoría a la práctica: lecciones aprendidas en ambientes p...SemanticWebBuilder
En el INFOTEC se ha privilegiado la Web Semántica como plataforma de desarrollo por más de 10 años, lo cual ha tenido como resultado la construcción de varios productos Open Source, como lo es el SemanticWebBuilder el cual está siendo utilizado en gran parte de los principales portales del gobierno mexicano. En esta presentación deseamos compartir nuestras experiencias y lecciones aprendidas en el uso de las técnicas y tecnologías asociadas a la Web Semántica en entornos productivos, buscando tener un número mayor de casos de éxito en esta tendencia de desarrollo.
Desplegando modelos de Machine Learning en producción (y no morir en el intento)Plain Concepts
Esta sesión tiene como objetivo enseñar como definir un pipeline de entrenamiento y despliegue de modelos de machine learning. La idea será adaptar el enfoque de TensorFlow extended a Azure ML, viendo cada una de las partes del proceso y describiendo cada uno de los componentes usando el ecosistema de Microsoft (Azure, AzureML, etc)
3Redu: Responsabilidad, Resiliencia y Respetocdraco
¡Hola! Somos 3Redu, conformados por Juan Camilo y Cristian. Entendemos las dificultades que enfrentan muchos estudiantes al tratar de comprender conceptos matemáticos. Nuestro objetivo es brindar una solución inclusiva y accesible para todos.
En este documento analizamos ciertos conceptos relacionados con la ficha 1 y 2. Y concluimos, dando el porque es importante desarrollar nuestras habilidades de pensamiento.
Sara Sofia Bedoya Montezuma.
9-1.
Inteligencia Artificial y Ciberseguridad.pdfEmilio Casbas
Recopilación de los puntos más interesantes de diversas presentaciones, desde los visionarios conceptos de Alan Turing, pasando por la paradoja de Hans Moravec y la descripcion de Singularidad de Max Tegmark, hasta los innovadores avances de ChatGPT, y de cómo la IA está transformando la seguridad digital y protegiendo nuestras vidas.
(PROYECTO) Límites entre el Arte, los Medios de Comunicación y la Informáticavazquezgarciajesusma
En este proyecto de investigación nos adentraremos en el fascinante mundo de la intersección entre el arte y los medios de comunicación en el campo de la informática.
La rápida evolución de la tecnología ha llevado a una fusión cada vez más estrecha entre el arte y los medios digitales, generando nuevas formas de expresión y comunicación.
Continuando con el desarrollo de nuestro proyecto haremos uso del método inductivo porque organizamos nuestra investigación a la particular a lo general. El diseño metodológico del trabajo es no experimental y transversal ya que no existe manipulación deliberada de las variables ni de la situación, si no que se observa los fundamental y como se dan en su contestó natural para después analizarlos.
El diseño es transversal porque los datos se recolectan en un solo momento y su propósito es describir variables y analizar su interrelación, solo se desea saber la incidencia y el valor de uno o más variables, el diseño será descriptivo porque se requiere establecer relación entre dos o más de estás.
Mediante una encuesta recopilamos la información de este proyecto los alumnos tengan conocimiento de la evolución del arte y los medios de comunicación en la información y su importancia para la institución.
(PROYECTO) Límites entre el Arte, los Medios de Comunicación y la Informáticavazquezgarciajesusma
En este proyecto de investigación nos adentraremos en el fascinante mundo de la intersección entre el arte y los medios de comunicación en el campo de la informática.
La rápida evolución de la tecnología ha llevado a una fusión cada vez más estrecha entre el arte y los medios digitales, generando nuevas formas de expresión y comunicación.
Continuando con el desarrollo de nuestro proyecto haremos uso del método inductivo porque organizamos nuestra investigación a la particular a lo general. El diseño metodológico del trabajo es no experimental y transversal ya que no existe manipulación deliberada de las variables ni de la situación, si no que se observa los fundamental y como se dan en su contestó natural para después analizarlos.
El diseño es transversal porque los datos se recolectan en un solo momento y su propósito es describir variables y analizar su interrelación, solo se desea saber la incidencia y el valor de uno o más variables, el diseño será descriptivo porque se requiere establecer relación entre dos o más de estás.
Mediante una encuesta recopilamos la información de este proyecto los alumnos tengan conocimiento de la evolución del arte y los medios de comunicación en la información y su importancia para la institución.
Actualmente, y debido al desarrollo tecnológico de campos como la informática y la electrónica, la mayoría de las bases de datos están en formato digital, siendo este un componente electrónico, por tanto se ha desarrollado y se ofrece un amplio rango de soluciones al problema del almacenamiento de datos.
2. • Head de DS RappiPay
• Maestría en ciencias de la computación por el
ITESM
• Organizador del Data Pub Mx
• http://carlwhandlin.com/
• https://www.linkedin.com/in/carlhandlin/
• https://github.com/cwallaceh/
¿Quién soy?
10. • Unas de las herramientas más usadas para el
entrenamiento de modelos de machine learning
(supervisado y no supervisado).
• Extensión de SciPy con los algoritmos de ML más
usados (SciKit). Creado sobre NumPy y SciPy, y
algunos paquetes de C.
• Herramienta de código abierto.
• Probablemente la mejor herramienta para ML en la
actualidad.
• Para clasificación, regresión, agrupación…
• Modelo lineal generalizado, SVM, kNN, árboles de
decision, Naive Bayes.
Scikit-Learn
11. • Unas de las herramientas más usadas para el
entrenamiento de modelos de deep learning
usando redes neuronales.
• Escrito en C++ y Python, desarrollado por el
Google Brain en 2015.
• Herramienta de código abierto que provee
funciones para trabajar con tensores y grafos.
• Actualmente en su versión 2.0
• TensoFlow.js para correr modelos en el browser
• Demo
TensorFlow
12. • Keras es una API de aprendizaje profundo
escrita en Python, que se ejecuta sobre
TensorFlow, pero también puede trabajar con
otros backends (Theano, CNTK).
• Keras es la API de alto nivel con una interfaz
accesible y altamente productiva
• Proporciona abstracciones y bloques de
construcción esenciales para desarrollar
soluciones de aprendizaje automático
• Podemos pensar en Keras como un conjunto
de abstracciones que facilitan construir
modelos de deep learning
Keras
13. TF vs Keras
import tensorflow as tf
from tensorflow.keras.layers import Input, Dense
from keras.models import Model
l = tf.keras.layers
model = tf.keras.Sequential([
l.Flatten(input_shape=(784,)),
l.Dense(128, activation='relu'),
l.Dense(128, activation='relu'),
l.Dense(10, activation='softmax')
])
model.compile(loss='categorical_crossentropy', optimizer='adam',metrics = ['accuracy'])
model.summary()
model.fit(x_train.reshape(-1,784),pd.get_dummies(y_train),nb_epoch=15,batch_size=128,verbose=1)
X = tf.placeholder(dtype=tf.float64)
Y = tf.placeholder(dtype=tf.float64)
num_hidden=128
# Build a hidden layer
W_hidden = tf.Variable(np.random.randn(784, num_hidden))
b_hidden = tf.Variable(np.random.randn(num_hidden))
p_hidden = tf.nn.sigmoid( tf.add(tf.matmul(X, W_hidden), b_hidden) )
# Build another hidden layer
W_hidden2 = tf.Variable(np.random.randn(num_hidden, num_hidden))
b_hidden2 = tf.Variable(np.random.randn(num_hidden))
p_hidden2 = tf.nn.sigmoid( tf.add(tf.matmul(p_hidden, W_hidden2), b_hidden2) )
# Build the output layer
W_output = tf.Variable(np.random.randn(num_hidden, 10))
b_output = tf.Variable(np.random.randn(10))
p_output = tf.nn.softmax( tf.add(tf.matmul(p_hidden2, W_output), b_output) )
loss = tf.reduce_mean(tf.losses.mean_squared_error(
labels=Y,predictions=p_output))
accuracy=1-tf.sqrt(loss)
minimization_op = tf.train.AdamOptimizer(learning_rate=0.01).minimize(loss)
feed_dict = {
X: x_train.reshape(-1,784),
Y: pd.get_dummies(y_train)
}
with tf.Session() as session:
session.run(tf.global_variables_initializer())
for step in range(10000):
J_value = session.run(loss, feed_dict)
acc = session.run(accuracy, feed_dict)
if step % 100 == 0:
print("Step:", step, " Loss:", J_value," Accuracy:", acc)
session.run(minimization_op, feed_dict)
pred00 = session.run([p_output], feed_dict={X: x_test.reshape(-1,784)})
14. • Un contendiente fuerte para las otra
herramientas de deep learning basado en
Torch
• Herramienta de código abierto desarrollada
por el departamento de investigación en AI de
Facebook
• Entre los ejemplo más importantes de software
que usa Pytorch se encuentra el “Tesla
Autopilot”.
PyTorch
15. • Herramienta de código abierto para desarrollo
de redes neuronales profundas.
• Respaldado por proveedores de nube como
Amazon Web Services (AWS) y Microsoft Azure.
• C ++ para el backend que aprovecha al máximo
la GPU o CPU disponible, y Python, R, Scala,
Clojure, Julia, Perl, MATLAB o JavaScript para un
frontend de desarrollo.
MXNet
17. • Natural Language Toolkit, Herramienta de
código abierto.
• Conjunto de herramientas de procesamiento
de texto para clasificación, tokenización,
stemming, etiquetado, análisis gramatical y
razonamiento semántico.
• Análisis de sentimiento, auto correctos,
traductor de idiomas, generación de texto,
reconocimiento de entidades, modelado de
temas.
NLTK
19. • ¡Más de 20 años de existencia!
• Herramienta de código abierto con mas de 2500
algoritmos optimizados.
• Usado para detección y reconocimiento de
rostros, identificar objetos, clasificar acciones
humanas en videos, rastrear movimientos,
rastrear objetos en movimiento, extraer modelos
3D de objetos, buscar imágenes similares de una
base de datos, seguir los movimientos oculares,
reconocer paisajes y establecer marcadores para
superponerlos con realidad aumentada, y
muchas más aplicaciones.
• Multiplataforma, C++, Python, Java, etc…
OpenCV