Este documento presenta un programa de aceleración para desarrollar inteligencia artificial fiable, explicable y ética mediante el uso de reglas lógicas y razonamiento con sentido común. El objetivo es hacer los modelos de IA más humanos considerando varias hipótesis, explicando resultados y detectando sesgos. Se detallan fondos e ingresos previstos para constituir un equipo de investigación en 4 años.
2. ¿Es fiable? una IA
con un 99% de
precisión que:
- No sabe por qué falla.
- No explica sus resultados.
- No aprende de sus errores.
- No se adapta…
[UE’s GDPR, DARPA’s XAI]
4. Hacer los modelos
de razonamiento
más humanos:
+ Modelar usando reglas.
+ Razonar con excepciones.
+ Extender la lógica clásica.
+ Negación explicita y por fallo.
+ Considerar varias hipótesis.
5. Gestionar algo más
que datos implica:
+ Explicar por qué si…
…y/o por qué no.
+ Detectar y evitar sesgos.
+ Veri
fi
car si es legal y ética.
+ Ser auditable y adaptable.
9. …para en 4 años
ser un equipo de:
+ Dos directores.
+ Tres especialistas.
+ Cinco programadores.
+ Ocho analistas* (alumnos).
Bene
fi
cio = 0,1 M€ / año.
11. 2017 - ayer…
+ Diagnosis médica (+100 reglas)
+ Razonador de Event Calculus.
+ Alexa SocialBot.
+ Asesores jurídicos.
+ Re
fi
namiento de modelos BIM.
+ Workshops: GDE’21 y GDE’22.
12. + Joaquín Arias: desarrollador de s(CASP).
+ UTDallas: expertos en s(CASP).
+ URJC (CETINIA): expertos en IA y Derecho.
+ IMDEA + UPM: expertos en Ciao Prolog.
+ Seppo Törmä (BIM+link data), Jan Wielemaker
(SWI Prolog), Bob Kowalski (Logical English),
Jason Morris (Rules as Code), entre otros…
TEAM:
13. + Joaquín Arias: desarrollador de s(CASP).
+ UTDallas: expertos en s(CASP).
+ URJC (CETINIA): expertos en IA y Derecho.
+ IMDEA + UPM: expertos en Ciao Prolog.
+ Seppo Törmä (BIM+link data), Jan Wielemaker
(SWI Prolog), Bob Kowalski (Logical English),
Jason Morris (Rules as Code), entre otros…
Únete y programa con +lógica…
TEAM: