En este webminar exploramos el nuevo sistema de búsquedas del portal del Museo Reina Sofía y diseccionamos su implementación basada en Drupal y Apache Solr.
Mejora la experiencia de búsquedas con SOLR - Sesión Drupal Camp 2013 - CaceresDavid Gil Sánchez
Exploraremos a través de un caso práctico las diferentes piezas que componen una buena experiencia de búsquedas insite. Utilizaré como marco de referencia el sistema de búsquedas del nuevo portal del Museo Reina Sofía diseccionando su implementación basada en Drupal y Apache Solr. Se trata de una sesión mitad técnica y mitad funcional, veremos código y veremos las posibilidades que ofrece SOLR y su integración con Drupal.
Estos son algunos puntos que tratamos en esta sesión:
Libertad para el usuario: búsquedas facetadas para profundizar en los resultados de búsqueda
Enséñame lo que tienes: snippets completos para facilitar el escaneo de la página por el usuario
Guernica no es lo mismo que Boceto para Guernica: ajustando la relevancia de resultados en base a tu modelo de negocio
SOLR como integrador de sistemas. Embebiendo otros sistemas de información de forma transparente en tu portal.
Relacionar contenidos “a mano” es aburrido. SOLR como motor de generación de contenidos relacionados.
Construyendo ciclos de análisis y mejora continua: tracking de búsquedas con Google Analytics
Si desarrollamos un proyecto web donde el volumen de información sea muy alto y es necesario proveer de un mecanismo de búsqueda rápido y eficiente, Apache Solr viene al rescate.
Formación de Solr Avanzado, incluye muchos aspectos sobre Solr desde la arquitectura, la clusterización o el sharding, hasta las políticas de indexación y búsqueda distribuida, así como los componentes y handlers para la búsqueda avanzada (Faceting, Grouping, Sorting, Highlighting, Spellchecking, More like this, etc...)
These are the slides used for the presentation of Search Engines and Solr at the Java Users Group Argentina, in June 2011. See http://www.jugargentina.org/events/19524971/
Estas son las diapositivas utilizadas en mi presentación de Search engines y Solr, en la Java Users Group de Argentina. http://www.jugargentina.org/events/19524971/
Presentación curso de Apache Solr. A través de la realización de ejercicios prácticos, se obtendrán conocimientos sobre la implantación de tecnologías Solr, configuración, indexación, análisis y resolución de problemas comunes.
Mejora la experiencia de búsquedas con SOLR - Sesión Drupal Camp 2013 - CaceresDavid Gil Sánchez
Exploraremos a través de un caso práctico las diferentes piezas que componen una buena experiencia de búsquedas insite. Utilizaré como marco de referencia el sistema de búsquedas del nuevo portal del Museo Reina Sofía diseccionando su implementación basada en Drupal y Apache Solr. Se trata de una sesión mitad técnica y mitad funcional, veremos código y veremos las posibilidades que ofrece SOLR y su integración con Drupal.
Estos son algunos puntos que tratamos en esta sesión:
Libertad para el usuario: búsquedas facetadas para profundizar en los resultados de búsqueda
Enséñame lo que tienes: snippets completos para facilitar el escaneo de la página por el usuario
Guernica no es lo mismo que Boceto para Guernica: ajustando la relevancia de resultados en base a tu modelo de negocio
SOLR como integrador de sistemas. Embebiendo otros sistemas de información de forma transparente en tu portal.
Relacionar contenidos “a mano” es aburrido. SOLR como motor de generación de contenidos relacionados.
Construyendo ciclos de análisis y mejora continua: tracking de búsquedas con Google Analytics
Si desarrollamos un proyecto web donde el volumen de información sea muy alto y es necesario proveer de un mecanismo de búsqueda rápido y eficiente, Apache Solr viene al rescate.
Formación de Solr Avanzado, incluye muchos aspectos sobre Solr desde la arquitectura, la clusterización o el sharding, hasta las políticas de indexación y búsqueda distribuida, así como los componentes y handlers para la búsqueda avanzada (Faceting, Grouping, Sorting, Highlighting, Spellchecking, More like this, etc...)
These are the slides used for the presentation of Search Engines and Solr at the Java Users Group Argentina, in June 2011. See http://www.jugargentina.org/events/19524971/
Estas son las diapositivas utilizadas en mi presentación de Search engines y Solr, en la Java Users Group de Argentina. http://www.jugargentina.org/events/19524971/
Presentación curso de Apache Solr. A través de la realización de ejercicios prácticos, se obtendrán conocimientos sobre la implantación de tecnologías Solr, configuración, indexación, análisis y resolución de problemas comunes.
SOLR es el nuevo motor de indexación que incorpora Alfresco en su versión 4.0, no obstante, se puede seguir usando Lucene. En este webinar de una hora de duración, junto a Baratz (Partner Gold de Alfresco), vamos a aprender qué es SOLR, cómo funciona y cómo está soportado, como configurarlo y migrar de Lucene a Solr, qué efectos tiene en el repositorio y que mejoras nos aporta.
Large Scale Crawling with Apache Nutch and FriendsJulien Nioche
This session will give an overview of Apache Nutch. I will describe its main components and how it fits with other Apache projects such as Hadoop, SOLR, Tika or HBase. The second part of the presentation will be focused on the latest developments in Nutch, the differences between the 1.x and 2.x branch and what we can expect to see in Nutch in the future. This session will cover many practical aspects and should be a good starting point to crawling on a large scale with Apache Nutch and SOLR.
Faster! Optimize Your Cascade Server Experience, by Justin Klingman, Beacon T...hannonhill
In today’s world, we want our online experience to be as fast as possible (who wants to wait?), and our interaction with Cascade Server is no different. In this session, Justin Klingman of Beacon Technologies will cover Cascade Server optimization techniques--including auditing slow sites, index block settings and use, XSLT coding tips, and hardware configuration for optimal performance.
Presentation at ApacheCon US 2008 (New Orleans) by Paolo Mottadelli. This is about the Apache Tika project and how it was integrated in Alfresco in order to support Open XML format Full Text Search.
From the Fast Feather Track at ApacheCon NA 2010 in Atlanta
This quick talk provides an overview of Apache Tika, looks at a new features and supported file formats. It then shows how to create a new parser, and finishes with using Tika from your own application.
Large Scale Crawling with Apache Nutch and Friendslucenerevolution
Presented by Julien Nioche, Director, DigitalPebble
This session will give an overview of Apache Nutch. I will describe its main components and how it fits with other Apache projects such as Hadoop, SOLR, Tika or HBase. The second part of the presentation will be focused on the latest developments in Nutch, the differences between the 1.x and 2.x branch and what we can expect to see in Nutch in the future. This session will cover many practical aspects and should be a good starting point to crawling on a large scale with Apache Nutch and SOLR.
Talk about Apache Nutch on ApacheCon Europe 2014:
http://sched.co/1nyYa7b
http://events.linuxfoundation.org/sites/events/files/slides/aceu2014-snagel-web-crawling-nutch.pdf
Storm-Crawler is a collection of resources for building low-latency, large scale web crawlers on Apache Storm. We will compare with similar projects like Apache Nutch and present several use cases where the storm-crawler is being used. In particular we will see how the Storm-crawler can be used with ElasticSearch and Kibana for crawling and indexing web pages.
In this session, we will look first at the rich metadata that documents in your repository have, how to control the mapping of this on to your content model, and some of the interesting things this can deliver. We’ll then move on to the content transformation and rendition services, and see how you can easily and powerfully generate a wide range of media from the content you already have. Finally, we’ll look at how to extend these services to support additional formats.
In this session, we will look first at the rich metadata that documents in your repository have, how to control the mapping of this on to your content model, and some of the interesting things this can deliver. We'll then move on to the content transformation and rendition services, and see how you can easily and powerfully generate a wide range of media from the content you already have.
This talk will give an overview of Apache Nutch, its main components, how it fits with other Apache projects and its latest developments.
Apache Nutch was started exactly 10 years ago and was the starting point for what later became Apache Hadoop and also Apache Tika. Nutch is nowadays the tool of reference for large scale web crawling.
In this talk I will give an overview of Apache Nutch and describe its main components and how Nutch fits with other Apache projects such as Hadoop, SOLR or Tika.
The second part of the presentation will be focused on the latest developments in Nutch and the changes introduced by the 2.x branch with the use of Apache GORA as a front end to various NoSQL datastores.
Presentación realizada por José Luis Almazán, de la empresa ticMind en Madrid el 22 de Octubre de 2014. Es la introducción a un workshop que se puede ver íntegramente en la url http://www.youtube.com/watch?v=NmNISWwyyA0&list=UUjZthSiLbJ85LOlxAxeNtxw. Además de José Luis, intervinieron por parte de Salesforce Enrique Polo (presidente de Salesforce España), Eduardo Sanchez (responsable de plataforma de Salesforce España) y Nacho Saenz (responsable de Partners de Salesforce España)
SOLR es el nuevo motor de indexación que incorpora Alfresco en su versión 4.0, no obstante, se puede seguir usando Lucene. En este webinar de una hora de duración, junto a Baratz (Partner Gold de Alfresco), vamos a aprender qué es SOLR, cómo funciona y cómo está soportado, como configurarlo y migrar de Lucene a Solr, qué efectos tiene en el repositorio y que mejoras nos aporta.
Large Scale Crawling with Apache Nutch and FriendsJulien Nioche
This session will give an overview of Apache Nutch. I will describe its main components and how it fits with other Apache projects such as Hadoop, SOLR, Tika or HBase. The second part of the presentation will be focused on the latest developments in Nutch, the differences between the 1.x and 2.x branch and what we can expect to see in Nutch in the future. This session will cover many practical aspects and should be a good starting point to crawling on a large scale with Apache Nutch and SOLR.
Faster! Optimize Your Cascade Server Experience, by Justin Klingman, Beacon T...hannonhill
In today’s world, we want our online experience to be as fast as possible (who wants to wait?), and our interaction with Cascade Server is no different. In this session, Justin Klingman of Beacon Technologies will cover Cascade Server optimization techniques--including auditing slow sites, index block settings and use, XSLT coding tips, and hardware configuration for optimal performance.
Presentation at ApacheCon US 2008 (New Orleans) by Paolo Mottadelli. This is about the Apache Tika project and how it was integrated in Alfresco in order to support Open XML format Full Text Search.
From the Fast Feather Track at ApacheCon NA 2010 in Atlanta
This quick talk provides an overview of Apache Tika, looks at a new features and supported file formats. It then shows how to create a new parser, and finishes with using Tika from your own application.
Large Scale Crawling with Apache Nutch and Friendslucenerevolution
Presented by Julien Nioche, Director, DigitalPebble
This session will give an overview of Apache Nutch. I will describe its main components and how it fits with other Apache projects such as Hadoop, SOLR, Tika or HBase. The second part of the presentation will be focused on the latest developments in Nutch, the differences between the 1.x and 2.x branch and what we can expect to see in Nutch in the future. This session will cover many practical aspects and should be a good starting point to crawling on a large scale with Apache Nutch and SOLR.
Talk about Apache Nutch on ApacheCon Europe 2014:
http://sched.co/1nyYa7b
http://events.linuxfoundation.org/sites/events/files/slides/aceu2014-snagel-web-crawling-nutch.pdf
Storm-Crawler is a collection of resources for building low-latency, large scale web crawlers on Apache Storm. We will compare with similar projects like Apache Nutch and present several use cases where the storm-crawler is being used. In particular we will see how the Storm-crawler can be used with ElasticSearch and Kibana for crawling and indexing web pages.
In this session, we will look first at the rich metadata that documents in your repository have, how to control the mapping of this on to your content model, and some of the interesting things this can deliver. We’ll then move on to the content transformation and rendition services, and see how you can easily and powerfully generate a wide range of media from the content you already have. Finally, we’ll look at how to extend these services to support additional formats.
In this session, we will look first at the rich metadata that documents in your repository have, how to control the mapping of this on to your content model, and some of the interesting things this can deliver. We'll then move on to the content transformation and rendition services, and see how you can easily and powerfully generate a wide range of media from the content you already have.
This talk will give an overview of Apache Nutch, its main components, how it fits with other Apache projects and its latest developments.
Apache Nutch was started exactly 10 years ago and was the starting point for what later became Apache Hadoop and also Apache Tika. Nutch is nowadays the tool of reference for large scale web crawling.
In this talk I will give an overview of Apache Nutch and describe its main components and how Nutch fits with other Apache projects such as Hadoop, SOLR or Tika.
The second part of the presentation will be focused on the latest developments in Nutch and the changes introduced by the 2.x branch with the use of Apache GORA as a front end to various NoSQL datastores.
Presentación realizada por José Luis Almazán, de la empresa ticMind en Madrid el 22 de Octubre de 2014. Es la introducción a un workshop que se puede ver íntegramente en la url http://www.youtube.com/watch?v=NmNISWwyyA0&list=UUjZthSiLbJ85LOlxAxeNtxw. Además de José Luis, intervinieron por parte de Salesforce Enrique Polo (presidente de Salesforce España), Eduardo Sanchez (responsable de plataforma de Salesforce España) y Nacho Saenz (responsable de Partners de Salesforce España)
Búsqueda en SharePoint 2013, ahora si tenemos FASTSolidQ
http://summit.solidq.com/madrid
En SharePoint 2013, uno de los focos más importantes del equipo de Producto ha sido el motor de búsquedas, tanto es así, que han combinado FAST y SharePoint Search para construir una solución renovada final capaz de competir con los mejores motores de búsqueda empresariales. En esta sesión veremos como es la nueva arquitectura de búsqueda, veremos ejemplos prácticos en los que mejoramos la interfaz gráfica de los resultados de búsqueda en vivo. Además, como punto final explicaremos un caso de investigación aplicada que realizamos como parte del programa de Doctorado de la Universidad de Alicante. En dicho caso de investigación se implementa una solución sobre el motor de SharePoint Search 2013 y en el que se obtienen mejoras significativas en los experimentos realizados.
Introducción a esta base de datos NoSQL que permite desarrollar aplicaciones altamente escalables gracias a su velocidad (100k operaciones por segundo en un ordenador corriente) y su capacidad de trabajar en varios nodos.
BancaCivica.es: Un caso de éxito Drupal en el sector bancarioDavid Gil Sánchez
Para todos aquellos interesados en conocer la implantación de Drupal como Gestor de Contenidos en sectores críticos presentaremos la implantación de Drupal como gestor de contenidos del conjunto de portales de Banca Cívica, uno de los grandes grupos bancarios españoles.
Esta sesión se centrará en explicar el proceso seguido para realizar la construcción de los diferentes sites que componen la presencia online de Banca Cívica, centrándonos en los aspectos más técnicos del proyecto: Infraestructura utilizada, módulos utilizados, solución multi-idioma, procesos de paso entre entornos, buenas prácticas técnicas aprendidas, etc…
Mostraremos el porque de nuestras decisiones técnicas: panels o context, como usamos features, como usamos drush, cuando hemos requerido de paradas de autoría, etc…
Especificación de Arquitectura de SoftwareSoftware Guru
El objetivo de la plática es mostrar con un ejemplo como especificar la arquitectura de un sistema.
Hoy en día hay varios libros de Arquitectura de software que nos muestran: Que debemos hacer, Que podemos usar pero pocos nos dan un ejemplo concreto.
Esta platica está dirigida a aquellos colegas que quieren iniciar en el rol de Arquitecto de Software, que tienen la experiencia y conocimientos pero tienen duda de como plasmar sus decisiones de diseño ó se preguntan si su diseño es suficiente y correcto.
En esta platica se desarrolla en 2 partes:
En la 1ª. se repasaran algunos conceptos relativos a la práctica de Arquitectura tales como objetivo, requerimientos no funcionales, riesgos, restricciones, patrones, vistas, etc.
En la 2ª. parte se mostrará como hacer una especificación de Arquitectura de un caso real pero acotado.
Al final espero que el participante se quede con una referencia que sirva para mejorar su práctica de Diseño de Arquitectura.
Presentación sobre la herramienta opensource jBPM, sus usos sobre procesos y reglas de negocio, además de como integrarlas con nuestros sistemas por medio de su API.
SEO para E-COMMERCE por Natzir y Dani PinillosNatzir Turrado
SEO para E-commerce: Tres cosas a controlar en grandes portales ecommerce para su correcto posicionamiento. Taller impartido por Natzir Turrado y Daniel Pinillos durante el Congreso Web de 2015. Más info: http://www.analistaseo.es/posicionamiento-buscadores/frecuencia-rastreo/
Arquitectura de información para usuarios y buscadores o robots de buscadores. En esta presentación conocerás como optimizar una AI para tus usuarios buyer persona y cómo optimizarla para SEO. Explico la metodología para optimizarla y mi experiencia en la creación de arquitecturas de información en grandes ecommerce. Aprenderás como debes crearla para que sean útiles para usuarios y perfectamente optimizadas para buscadores como Google. Es la presentación que dí en SeoPlus el 26 de Julio de 2019.
Nuevas tecnologías para desarrollo web son discutidas y empleadas hoy alrededor del mundo. Esta charla presenta algunas de ellas y cómo Mozilla trabaja no sólo para soportarlas, sino también proponer nuevas maneras de interactuar con la Web.
Estrategias Web del Comunity Manager, #mooc @MiriadaXRosa Mª González
Material facilitado por @pacosuay en curso gratuito masivo (mooc):
https://www.miriadax.net/web/estrategias-de-marketing-online.-community-manager/inicio
Similar a Drupal + Solr Mejorando la experiencia de búsqueda (20)
Selfbank.es: Uno de los pocos portales Drupal en un sector tan crítico como el de la Banca. Drupal 7, Atomic Design, Search API, integración con herramientas externas de Inbound Marketing (Hubspot), e implantado en sobre AWS con un sistema de autodeploy y autoescalado. Caso de éxito de Biko2
En esta sesión mostraremos la potencia del módulo paragraphs para mejorar la experiencia de uso de Drupal para los editores de contenido. Paragraphs es un módulo que tiene ya un par de años de vida para D7, pero con la incorporación a Drupal 8 de twig, creación de view modes en core y entity API ha visto mejorada su arquitectura para el sitebuilding en Drupal8.
En esta sesión mostraremos:
Como estamos usando paragraphs en nuestros últimos proyectos para dotar a los editores de flexibilidad a la vez que estructuramos el contenido.
Cuales son las claves y conceptos que hay detrás de paragraphs
Como podemos extenderlo con plantillas twig personalizadas
Trucos para mejorar lo que da por defecto
Como combinarlo con otros sistemas como panels, page manager, context...
Se trata de una sesión pensada para site-builders.
Sesión de la DrupalCamp Jerez 2015 sobre Drupal + Capistrano.
En esta sesión presentaremos de forma práctica como estamos realizando nuestros despliegues de proyectos Drupal en entornos clusterizados en Amazon AWS usando una combinación de Capistrano 3 (http://capistranorb.com/) y una política de ramas en GIT.
La sesión combinará una parte teórica con una parte de demo real. El objetivo es que en media hora se tengan los conceptos clave para que a partir de ahora os olvidéis de la subida a producción usando sFTP, scripts de shell o cualquier medio no automatizado. Además “destriparemos” las recetas ruby que estamos usando y las publicaremos para vuestro uso y disfrute!.
Casper JS - Asegurando la calidad en front-end DrupalDavid Gil Sánchez
En esta sesión presentaremos como estamos utilizando CasperJS (http://casperjs.org/) para asegurar la calidad de algunos de nuestros desarrollos y evitar los tan temidos (y comunes) bugs de regresión.
Mostraremos el uso básico de CasperJS y veremos un caso real en el que estamos testando la lógica principal de un portal con procesos complejos que involucran submits de formularios multipaso, testeo con multiples roles, etc...
Sesión del DrupalDay Bilbao 2014 sobre Drupal + Capistrano.
En esta sesión presentaremos de forma práctica como estamos realizando nuestros despliegues de proyectos Drupal en entornos clusterizados en Amazon AWS usando una combinación de Capistrano 3 (http://capistranorb.com/) y una política de ramas en GIT.
La sesión combinará una parte teórica con una parte de demo real. El objetivo es que en media hora se tengan los conceptos clave para que a partir de ahora os olvidéis de la subida a producción usando sFTP, scripts de shell o cualquier medio no automatizado. Además “destriparemos” las recetas ruby que estamos usando y las publicaremos para vuestro uso y disfrute!.
Presentación MuseoReinaSofia.es en Drupal Camp 2013David Gil Sánchez
Para todos aquellos interesados en conocer la implantación de Drupal como gestor de contenidos en grandes proyectos presentaremos la implantación de Drupal que hemos realizado durante el último año para el nuevo portal del Museo Centro de Arte Reina Sofía de Madrid (www.museoreinasofia.es), el mayor museo de arte moderno de España.
3Redu: Responsabilidad, Resiliencia y Respetocdraco
¡Hola! Somos 3Redu, conformados por Juan Camilo y Cristian. Entendemos las dificultades que enfrentan muchos estudiantes al tratar de comprender conceptos matemáticos. Nuestro objetivo es brindar una solución inclusiva y accesible para todos.
(PROYECTO) Límites entre el Arte, los Medios de Comunicación y la Informáticavazquezgarciajesusma
En este proyecto de investigación nos adentraremos en el fascinante mundo de la intersección entre el arte y los medios de comunicación en el campo de la informática.
La rápida evolución de la tecnología ha llevado a una fusión cada vez más estrecha entre el arte y los medios digitales, generando nuevas formas de expresión y comunicación.
Continuando con el desarrollo de nuestro proyecto haremos uso del método inductivo porque organizamos nuestra investigación a la particular a lo general. El diseño metodológico del trabajo es no experimental y transversal ya que no existe manipulación deliberada de las variables ni de la situación, si no que se observa los fundamental y como se dan en su contestó natural para después analizarlos.
El diseño es transversal porque los datos se recolectan en un solo momento y su propósito es describir variables y analizar su interrelación, solo se desea saber la incidencia y el valor de uno o más variables, el diseño será descriptivo porque se requiere establecer relación entre dos o más de estás.
Mediante una encuesta recopilamos la información de este proyecto los alumnos tengan conocimiento de la evolución del arte y los medios de comunicación en la información y su importancia para la institución.
Inteligencia Artificial y Ciberseguridad.pdfEmilio Casbas
Recopilación de los puntos más interesantes de diversas presentaciones, desde los visionarios conceptos de Alan Turing, pasando por la paradoja de Hans Moravec y la descripcion de Singularidad de Max Tegmark, hasta los innovadores avances de ChatGPT, y de cómo la IA está transformando la seguridad digital y protegiendo nuestras vidas.
2. • Falta
una
de
david
• Donde
trabajo
y
que
hago
• Autor
solr
forcontu
3. Estamos especializados en negocio digital
Creamos relaciones a largo plazo
Construimos proyectos
conjuntamente de principio a fin
Definimos y frontalizamos apuestas de
negocio y servicio con nuestros clientes
gracias a nuestro equipo de 80 trabajadores y
nuestros 20 años de experiencia acumulada.
Aplicamos soluciones
inteligentes y personalizadas
Implantamos ideas y tecnología smart
específica para cada cliente, con metodología
ágil, y abarcando todos los ámbitos y
dispositivos necesarios en la explotación de
su negocio online.
5. Nuestro equipo aúna:
Frontalización de apuestas de negocio y servicios.
Solvencia resolviendo el backoffice de sistemas complejos.
Somos 70 personas
Más de 18 años de experiencia
7. • Sistema
de
búsquedas
del
core
de
Drupal
es
muy
básico
– Basado
en
SQL,
operadores
de
búsqueda
limitados,
lento,
stemming
limitado,
…
CORE VS SOLR
• AlternaCva:
Solr
– Sistema
basado
en
Lucene
– Arquitectura
Java
– Normalmente
ejecutándose
en
servidores
separados
(indexación
matemáCca,
muy
rápido
en
consulta,
clusterización,
replicación,
…)