Este documento compara y resume varias herramientas de gestión de documentos y archivos. Algunas herramientas más avanzadas como Alfresco, Nuxeo y Fedora Repository Project usan XML, RDF y ontologías para describir y organizar los contenidos. Sin embargo, la mayoría de las herramientas clásicas de gestión de documentos no usan estos estándares. El documento concluye que es necesario definir claramente los requisitos del proyecto y probar varias herramientas antes de decidir.
WordPress y los modelos mixtos de desarrollo y negocioJesús Tramullas
Jornada Modelos de negocio y de gestión de contenidos con software libre.
Organizado por Baratz y El Profesional de la Información.
Fundación Carlos de Amberes. Madrid, 29/3/2012
Software libre y web 2.0 para gestión de informaciónJesús Tramullas
Sesión formativa Software libre y web 2.0 para gestión de información. Curso Información y Documentación Ambiental, CENEAM (Valsaín Segovia), octubre 2010.
Web framework ligeros y micros en java barcamp 2014Carlos Camacho
Presentación enfocada a mostrar las funcionalidades más importante de los micro framework Spark y Ratpack. Dando una inducción a los conceptos básicos en su utilización del protocolo HTTP y los servicios REST.
Impartida en la segunda edición en el Barcamp 2014, Pontificia Universidad Católica Madre y Maestra (PUCMM), Santiago de los Caballeros, República Dominicana.
WordPress y los modelos mixtos de desarrollo y negocioJesús Tramullas
Jornada Modelos de negocio y de gestión de contenidos con software libre.
Organizado por Baratz y El Profesional de la Información.
Fundación Carlos de Amberes. Madrid, 29/3/2012
Software libre y web 2.0 para gestión de informaciónJesús Tramullas
Sesión formativa Software libre y web 2.0 para gestión de información. Curso Información y Documentación Ambiental, CENEAM (Valsaín Segovia), octubre 2010.
Web framework ligeros y micros en java barcamp 2014Carlos Camacho
Presentación enfocada a mostrar las funcionalidades más importante de los micro framework Spark y Ratpack. Dando una inducción a los conceptos básicos en su utilización del protocolo HTTP y los servicios REST.
Impartida en la segunda edición en el Barcamp 2014, Pontificia Universidad Católica Madre y Maestra (PUCMM), Santiago de los Caballeros, República Dominicana.
¿Por que cambiar de Apache Hadoop a Apache Spark?Socialmetrix
Abstract de la charla realizada en SUGAR - Scala User Group Argentina
Apache Spark [1] es un framework para procesamiento distribuído diseñado para ser amigable para Data-Scientists y programadores, con soporte nativo a muchos lenguajes y diversidad de formatos de datos es extramadamente flexible. Cambiando el modelo establecido por Hadoop v1 de Map-Reduce por un grafo de ejecución (DAG) y manteniendo los pasos intermédios en RAM, Spark brinda excelente performance y una API muy expresiva.
Gustavo Arjones [2], CTO de Socialmetrix, va contar la experiencia que tuvieron al cambiarse de Hadoop a Spark y lo que los llevaron a este cambio. Esta charla es una introducción teorica y practica a Spark y sus distintos componentes.
Los tópicos a discutir son:
• Qué és?
• Aspectos que hacen Spark tan atractivo para la comunidad
• Plataforma unificada para Data Science (Batch, Stream, ML, Graph)
• Soporte a distintos lenguajes
• Ejecución: RDD y DAG / Task Scheduller
• Tracción de la comunidad (# commits, # commiters)
• testing, etc
• Demos:
• Spark-shell: Explicar paso a paso el WordCount
• LogAnalytics - compilar y submeter al cluster
• SQL/DataFrames: Demostrar que se puede consumir directamente JSON y hacer queries con SQL
[1] http://spark.apache.org
[2] https://linkedin.com/in/arjones
Profundo análisis de las tecnologías Big Data y como aplicarlas en el desarrollo de las Apis. Se analizan las bases de datos noSQL y aquellas tecnologías (Storm, Hadoop...) que pueden ayudar al desarrollo. Además, se analizan ejemplos de arquitecturas de Apis Big Data y como se han aplicado estas tecnologías.
Material utilizado en la sesión técnica que tuvo lugar el 5 de mayo de 2016. A lo largo de la sesión Óscar Miró presentó ejemplos de qué es lo que funciona (y lo que no funciona) a nivel de análisis en proyectos de Big Data.
Sobre el ponente: Oscar Marín Miró (outliers.es)
Ingeniero de Telecomunicaciones, trabaja e investiga desde el año 2001 en lo que ahora llamamos ‘Big Data’. Especializado en el análisis de texto, redes sociales, datos urbanos y visualización de datos. Fundador del colectivo Outliers, desde donde se fomenta la aplicación del valor de los datos a todos los campos (Ciencia, Periodismo, Urbanismo, Sociología, Marketing…).
Miembro del equipo de investigación transdisciplinar DatAnalysis15m, enfocado en el análisis entre la viralidad y el contenido emocional del mensaje. En la faceta docente, imparte cursos regularmente sobre análisis y visualización de datos, en diversas Universidades, Compañías e Instituciones (UOC, UAB, Telenoika Audiovisual Community, Convent de Sant Agustí, Telefónica Digital).
Gestión Semántica de Contenidos en Drupal (DrupalCampEs 2013)Redlink GmbH
Slides (in Spanish) presented by Rafa Haro and Antonio D. Pérez (Zaizi) at the DrupalCampEs in Caceres (Spain) in November 2013, introducing our semantic approach to manage content in Drupal CMS.
Further details at: http://2013.drupalcamp.es/gesti%C3%B3n-sem%C3%A1ntica-de-contenidos-en-drupal
Gestión Semántica de Contenidos en DrupalRafa Haro
En está presentación para Drupal Camp Spain 2013 hablamos sobre la Web Semántica en el Mundo Drupal y las soluciones que Zaizi y RedLink ofrecen para salvar las limitaciones de los módulos actuales de Drupal en este campo
Charla impartida por Marco Antonio Sanz Molina Prados, Fundador de CloudAppi, que repasa las tecnologías más habituales del mundo Big Data y su aplicación en el desarrollo de las Apis.
En la ponencia se tratan os siguientes puntos:
• Arquitectura Lambda
• Arquitectura de APIs
• Bases de datos noSQL
• Datawarehouses Big Data
• Ejemplos de arquitecturas
¿Por que cambiar de Apache Hadoop a Apache Spark?Socialmetrix
Abstract de la charla realizada en SUGAR - Scala User Group Argentina
Apache Spark [1] es un framework para procesamiento distribuído diseñado para ser amigable para Data-Scientists y programadores, con soporte nativo a muchos lenguajes y diversidad de formatos de datos es extramadamente flexible. Cambiando el modelo establecido por Hadoop v1 de Map-Reduce por un grafo de ejecución (DAG) y manteniendo los pasos intermédios en RAM, Spark brinda excelente performance y una API muy expresiva.
Gustavo Arjones [2], CTO de Socialmetrix, va contar la experiencia que tuvieron al cambiarse de Hadoop a Spark y lo que los llevaron a este cambio. Esta charla es una introducción teorica y practica a Spark y sus distintos componentes.
Los tópicos a discutir son:
• Qué és?
• Aspectos que hacen Spark tan atractivo para la comunidad
• Plataforma unificada para Data Science (Batch, Stream, ML, Graph)
• Soporte a distintos lenguajes
• Ejecución: RDD y DAG / Task Scheduller
• Tracción de la comunidad (# commits, # commiters)
• testing, etc
• Demos:
• Spark-shell: Explicar paso a paso el WordCount
• LogAnalytics - compilar y submeter al cluster
• SQL/DataFrames: Demostrar que se puede consumir directamente JSON y hacer queries con SQL
[1] http://spark.apache.org
[2] https://linkedin.com/in/arjones
Profundo análisis de las tecnologías Big Data y como aplicarlas en el desarrollo de las Apis. Se analizan las bases de datos noSQL y aquellas tecnologías (Storm, Hadoop...) que pueden ayudar al desarrollo. Además, se analizan ejemplos de arquitecturas de Apis Big Data y como se han aplicado estas tecnologías.
Material utilizado en la sesión técnica que tuvo lugar el 5 de mayo de 2016. A lo largo de la sesión Óscar Miró presentó ejemplos de qué es lo que funciona (y lo que no funciona) a nivel de análisis en proyectos de Big Data.
Sobre el ponente: Oscar Marín Miró (outliers.es)
Ingeniero de Telecomunicaciones, trabaja e investiga desde el año 2001 en lo que ahora llamamos ‘Big Data’. Especializado en el análisis de texto, redes sociales, datos urbanos y visualización de datos. Fundador del colectivo Outliers, desde donde se fomenta la aplicación del valor de los datos a todos los campos (Ciencia, Periodismo, Urbanismo, Sociología, Marketing…).
Miembro del equipo de investigación transdisciplinar DatAnalysis15m, enfocado en el análisis entre la viralidad y el contenido emocional del mensaje. En la faceta docente, imparte cursos regularmente sobre análisis y visualización de datos, en diversas Universidades, Compañías e Instituciones (UOC, UAB, Telenoika Audiovisual Community, Convent de Sant Agustí, Telefónica Digital).
Gestión Semántica de Contenidos en Drupal (DrupalCampEs 2013)Redlink GmbH
Slides (in Spanish) presented by Rafa Haro and Antonio D. Pérez (Zaizi) at the DrupalCampEs in Caceres (Spain) in November 2013, introducing our semantic approach to manage content in Drupal CMS.
Further details at: http://2013.drupalcamp.es/gesti%C3%B3n-sem%C3%A1ntica-de-contenidos-en-drupal
Gestión Semántica de Contenidos en DrupalRafa Haro
En está presentación para Drupal Camp Spain 2013 hablamos sobre la Web Semántica en el Mundo Drupal y las soluciones que Zaizi y RedLink ofrecen para salvar las limitaciones de los módulos actuales de Drupal en este campo
Charla impartida por Marco Antonio Sanz Molina Prados, Fundador de CloudAppi, que repasa las tecnologías más habituales del mundo Big Data y su aplicación en el desarrollo de las Apis.
En la ponencia se tratan os siguientes puntos:
• Arquitectura Lambda
• Arquitectura de APIs
• Bases de datos noSQL
• Datawarehouses Big Data
• Ejemplos de arquitecturas
El diseño de la herramienta.wiki.transficcion.euJesús Tramullas
Presentación sobre wiki semántico para corpus textual. Curso El pensamiento de las mujeres (1975-2025): Literatura, periodismo, filosofía (noviembre 2022).
Lo que no se documenta no existe. Introducción a la elaboración de documentac...Jesús Tramullas
Material de la conferencia Lo que no se documenta no existe. Introducción a la elaboración de documentación técnica. IX Jornadas de Wikimedia España, Almería, Noviembre de 2022.
No solo de software libre vive la cultura libreJesús Tramullas
Ponencia sobre cultura libre en las Primeras Jornadas de Cultura Libre, Oficina de Conocimiento y Cultura Libres, Univ. Rey Juan Carlos, Madrid, marzo 2022
Cámaras en las trincheras: la cobertura de los fotógrafos de la Guerra Civil ...Jesús Tramullas
Trabajo presentado en las IV Jornadas sobre Investigación en Historia de la Fotografía. 1839-1939: Un siglo de fotografía. Zaragoza, octubre 2021. Autores: Luis M. Blanco, Carmen Agustín y Jesús Tramullas
Nuestra imaginación es la que ve y no los ojos: Wikipedia y la memoria de la ...Jesús Tramullas
Autores: Luis M. Blanco y Jesús Tramullas. Conferencia pronunciada en el Curso Literaturas Transicionales en Europa (Comparatismo y Humanidades Digitales), Zaragoza, septiembre 2021.
Desarrollo de colecciones de patrimonio cultural en entornos colaborativosJesús Tramullas
Conferencia en Coloquio internacional
Epigrafía humanística en España y Portugal:
estudio y edición digital.
Universidad de Alcalá de Henares, 9-10 Julio 2019
ROMPECABEZAS DE ECUACIONES DE PRIMER GRADO OLIMPIADA DE PARÍS 2024. Por JAVIE...JAVIER SOLIS NOYOLA
El Mtro. JAVIER SOLIS NOYOLA crea y desarrolla el “ROMPECABEZAS DE ECUACIONES DE 1ER. GRADO OLIMPIADA DE PARÍS 2024”. Esta actividad de aprendizaje propone retos de cálculo algebraico mediante ecuaciones de 1er. grado, y viso-espacialidad, lo cual dará la oportunidad de formar un rompecabezas. La intención didáctica de esta actividad de aprendizaje es, promover los pensamientos lógicos (convergente) y creativo (divergente o lateral), mediante modelos mentales de: atención, memoria, imaginación, percepción (Geométrica y conceptual), perspicacia, inferencia, viso-espacialidad. Esta actividad de aprendizaje es de enfoques lúdico y transversal, ya que integra diversas áreas del conocimiento, entre ellas: matemático, artístico, lenguaje, historia, y las neurociencias.
4. Tipos de herramientas
Gestores de colecciones.
Descripción y publicación de archivos.
Gestión de documentos, records
management.
Gestión de contenidos.
5. El modelo ideal
■
Respeta los estándares de etiquetado y
metadatos.
■
Respeta los estándares de gestión de
documentos.
■
Permite implementar procesos de gestión de
archivo y de gestión de documentos.
■
Ofrece APIs abiertas para ampliar
prestaciones.
6. Estándares
■
XML / RDF / OWL / SKOS
■
Encoded Archival Description, EAD
■
METS
■
ISO 15489, ISO 30300
■
ISAD-G, ISAAR CPF
■
MoReq2
■
¿Europeana Data Model, EDM?
10. Greenstone
■
Gestor de colecciones.
■
Trabaja con XML.
■
Sin ontologías o RDF.
■
Completo sistema de
metadatos.
■
Sin API.
■
Sin control de versiones.
11. ResourceSpace
■
Gestor de colecciones de
imagen.
■
Orientado a publicación.
■
Gestiona versiones.
■
Poca flexibilidad en
esquemas de metadatos.
■
Mapea metadatos a XMP.
■
Arquitectura que permite
plugins.
■
Usa jQuery. Incluye SOAP
Web Services API.
12. Omeka
■
Colecciones para crear
exposiciones.
■
Todo tipo de ficheros.
■
Usa DC/DC Extended.
Puede incluir otros
metadatos.
■
Cumple OAI-PMH.
■
Importa EAD, XML,
VRA.
■
API para plugins.
13. Fedora Repository Project
■
Plataforma de desarrollo.
■
Java, XML y RDF.
SPARQL.
■
Definición de modelos de
contenidos y de esquemas
de metadatos.
■
OAI-PMH.
■
APIs, SOAP, REST...
■
Arquitectura modular.
Plugins.
15. ICA-AtoM
■
Standards Based Archival
Description System.
■
Basado en Qubit Toolkit.
■
ISAD(G), 2000; ISAAR(CFP),
2004; ISDIAH, 2008; ISDF,
2007, SKOS, 2009. RAD y
MODS.
■
Importa/exporta EAD, DC,
MODS; EAC y SKOS.
■
OAI-PMH
16. Archon
■
Unified Platform for Archival
Description and Access.
■
Importa/exporta EAD-XML,
MARC.
■
API para desarrollo.
17. Archivist Toolkit
■
Archival Data Management
System.
■
Arquitectura cliente/servidor
en Java.
■
Usa AT map. Importa/Exporta
EAD y MARC-XML; EAD,
MARC-XML, METS, MODS,
DC.
■
Desarrollo de plugins.
18. ArchivesSpace
■
Archon y Archivist Toolkit
terminan su ciclo de vida. Se
unen en ArchivesSpace.
■
Las especificaciones de alto
nivel indican:
– Gestión de archivos.
– XML, EAD, MARC-
XML, EAC, DC,
METS, MODS,
PREMIS, MADS.
– SOA, SOAP y REST.
■
Para 2013. Migraciones.
20. Epiware
■
Gestor clásico de
documentos.
■
No trabaja con XML,
RDF ni ontologías.
■
Sin esquemas de
metadatos.
■
No ofrece API.
■
Dudas sobre su
desarrollo (2008).
21. Kordil EDMS
■
Gestor clásico de
documentos.
■
No trabaja con XML,
RDF ni ontologías.
■
Sin esquemas de
metadatos.
■
No ofrece API.
■
Dudas sobre su
desarrollo (2010).
22. Xinco DMS
■
Gestor clásico de
documentos.
■
Norma FDA 21 CFR
part 11.
■
Sin esquemas de
metadatos.
■
No trabaja con XML,
RDF ni ontologías.
■
No ofrece API.
23. OpenDocMan
■
Gestor clásico de
documentos.
■
API para plugins.
■
No gestiona
metadatos.
■
Sin XML, ontologías
ni RDF.
24. OpenKM
■
Gestor de documentos
con workflow.
■
Trabaja con XML.
■
Metadatos configurables
y tesauro en OWL/RDFS
(SKOS).
■
SOAP Web Services
API.
25. KnowledgeTree
■
Gestión avanzada de
documentos con workflow.
■
Gestiona tipos de
documentos y esquemas
de metadatos.
■
Usa XML.
■
CMIS
■
REST y SOAP Web APIs.
26. Maarch
■
Gestor avanzado de
documentos de archivo
con workflow.
■
Usa DC.
■
Normas ISO/IEC 15489
y NF Z 42-013, ERMS
MoReq2
■
Usa XML.
■
SOAP Web Service API.
27. Alfresco ■
Gestor documental
avanzado. Módulo
específico para RM.
■
Records Management
DoD 5015-2.
■
Gestión de tipos de
documentos y esquemas
de metadatos.
■
DC.
■
XML / RDF.
■
CMIS.
■
SOAP y varias APIs.
28. Nuxeo ■
Gestor documental
avanzado con flujos de
trabajo. DAM.
■
Gestión de tipos de
documentos y esquemas
de metadatos.
■
DC.
■
CMIS.
■
XML.
■
SOAP y REST.
29. “Creo que será mejor para ambos
que pongamos las cartas encima
de la mesa."
Spade
30. Conclusiones
■
Las herramientas que trabajan con XML no son
numerosas.
■
El soporte a ontologías o esquemas de metadatos se
limita a las herramientas más avanzadas.
■
El archivo histórico no es una preocupación básica
(excepto en los gestores de documentos de archivo).
■
Es necesario disponer de desarrolladores
especializados.
31. Recomendaciones
■
Que el web semántico sea un requerimiento
imprescindible.
■
Definir el proyecto: necesidades reales
(presentes y futuras).
■
Evaluar y probar antes de decidir.
■
Asegurar la capacidad (propia o ajena) de
desarrollar.
■
No pensar como archiveros ;-)
32. “- ¿De qué estaba hecho el halcón?
- Del material del que están
hechos los sueños."