VOCACIÓN POR LA INNOVACIÓN

En Indizen hemos desarrollado varios proyectos propios de I+D+I que han contado tanto con financiación pública como privada. El resultado del proceso de investigación y desarrollo ha tenido un impacto muy importante en la empresa y nos ha permitido:

  • Establecer una cultura innovadora en la compañía.
  • Crear nuevas herramientas de software punteras que mejoran los procesos de negocio para nuestras empresas clientes y para la sociedad.
  • Generar nuevo negocio para nuestros/as accionistas y empleados/as.
  • Colaborar con otros centros de investigación”

PROYECTOS I+D+i

Hemos desarrollado proyectos para  el sector Energético y Sanitario que han sido cofinanciados por el Ministerio de Industria dentro del Programa Avanza I+D. Estas herramientas han supuesto un negocio para la compañía y han permitido generar nuevos puestos de trabajo.

Además de estos proyectos propios estamos desarrollando numerosos proyectos para nuestras empresas clientes, siguiendo la metodología de desarrollo y de gestión de proyectos Indizen.

Que aparezcan todos los proyectos minimizados y al pulsarlo se maximicen y aparezca más información.

NUEVAS LINEAS DE I+D

Unimos negocio y tecnología, reinventamos el futuro con nuestros clientes

Enriquecimiento de Datos

Actualmente, en la gran mayoría de los proyectos tecnológicos que se están desarrollando hay una gran carga de procesado y análisis de información. Dicha información puede poseerla la empresa o necesitar cierto enriquecimiento de fuentes externas. Es aquí donde Indizen presenta una amplia experiencia en obtención de datos de distintas fuentes, normalmente datos sin estructurar, los cuales, se transforman en datos estructurados para que puedan ser almacenados de forma homogénea para un posterior enriquecimiento y análisis.

Hemos trabajado haciendo uso de múltiples APIs de servicios en Internet que nos han proporcionado datos tan dispares como la información sobre comercios, valores climáticos, distribución de antenas de telefonía, datos demográficos. Estos datos unidos en diferentes capas con los datos “Open Data” de los gobiernos proporcionan un enriquecimiento de la información propia de nuestros clientes muy valiosa para su análisis.

Con estos enriquecimientos se han podido diseñar acciones comerciales muy específicas, predicciones de averías de máquinas y comportamientos poblacionales para mejorar servicios al público.

Somos expertos en uso de frameworks de extracción de información y llamadas a APIs, en herramientas para análisis de textos. No nos centramos en una única herramienta, al contrario, nos adaptamos a las necesidades del proyecto y del cliente para obtener la mejor solución posible acorde a los datos con los que debemos trabajar.

Procesamiento Lenguaje Natural

Uno de los retos del proceso de transformación digital es almacenar y procesar la ingente cantidad de datos generados. Las bases de datos actuales permiten estructurar, almacenar, buscar, y acceder a los datos de forma sencilla, estándar, con buenos rendimientos y fiabilidad, sin embargo, es fundamental estructurar y entender estos datos para explotarlos adecuadamente.

En este contexto entran en juego el procesamiento de lenguaje natural (NLP en sus siglas en inglés) y otras estrategias de análisis de información. Parte de los datos que nos encontramos están en forma de texto libre, generado por personas en su actividad normal de trabajo y relación social.  Empleando NLP podemos analizar estos textos a varios niveles para obtener información sintáctica y semántica generando valor añadido sobre los datos. Posteriormente, empleando métodos estadísticos podemos inferir conocimiento a partir de la información obtenida.

En el ámbito médico, el análisis de texto es un elemento capital en el proceso de documentación clínica. Por un lado, desarrollamos herramientas poco intrusivas para que el médico u otro personal sanitario pueda escribir sus informes con un formato correcto. Además se pueden ofrecer recomendaciones basadas en el conocimiento previo generado por el sistema. Posteriormente, se emplean herramientas NLP para procesar el informe en los siguientes pasos de su ciclo de vida, que tienen que ver con aspectos de codificación y estudio estadístico, entre otros.

Machine Learning

Una de las características más llamativas de los datos que se generan en un centro médico es su heterogeneidad. Esta variabilidad se deriva de la elevada complejidad de los protocolos médicos/quirúrgicos, que a su vez, tiene su reflejo a nivel de informe y administración.

Abordar el estudio de este tipo de datos resulta complicado empleando técnicas de análisis de datos convencionales. La propia naturaleza de los datos hace poco eficiente en tiempo y recursos procesar estos datos empleando modelos estáticos.

En este sentido, empleamos el aprendizaje máquina con estos objetivos:

  • Descubrir patrones en los datos tanto de tipo médico, como administrativo, para aportar valor al proceso de documentación clínica.
  • Generar herramientas de procesamiento de lenguaje natural sin necesidad de etiquetar manualmente diagnósticos y procedimientos médicos.
  • Revisar y validar documentación médica basándonos en las recomendaciones de sistemas entrenados en este sentido (estudio de casos típicos y outliers).
  • Representar gráficamente la actividad sanitaria, haciendo más accesible su visualización y gestión.
  • Mejorar la seguridad del paciente descubriendo relaciones entre variables que puedan estar acopladas.
Algoritmos de búsquedas semánticas

¿Qué son y cuál es la importancia de las búsquedas semánticas?

Las búsquedas semánticas tratan de mejorar la recuperación de información mediante el uso de categorizaciones de conceptos y redes semánticas, con la intención de desambiguar las consultas y devolver los resultados más relevantes. La dificultad de estas búsquedas, recae en emular el comportamiento humano a la hora de establecer equivalencias semánticas entre distintas expresiones. Un sistema, idealmente, deberá devolver los mismos resultados ordenados por relevancia para distintas consultas con la misma equivalencia semántica.

La importancia de las búsquedas semánticas está en auge debido a la aparición del Big Data y el evidente incremento en el volumen de datos digitalizados.  Un claro ejemplo de esta necesidad de optimizar las búsquedas, es el buscador de Google; devolver resultados extraídos de toda la red de la forma más precisa y personalizada posible, en base a una consulta de pocas palabras. En mayo de 2012, Google lanzó su Knowledge Graph con la intención de mejorar su motor de búsquedas, no realizando búsquedas léxicas (cadenas de texto) sino búsquedas semánticas (cosas, conceptos).

 

Búsquedas semánticas en el ámbito sanitario

En Indizen poseemos una amplia experiencia en el ámbito sanitario (donde es de vital importancia este tipo de búsquedas para favorecer la asistencia sanitaria y el apoyo a la toma de decisiones médicas). Hoy en día, existe multitud de información clínica procedente de distintas fuentes y en distintos formatos: información estructurada como terminologías clínicas, clasificaciones de enfermedades, etc., así como información no estructurada o semiestructurada, expresada en lenguaje natural. Precisamente el uso de lenguaje natural, es otra dificultad a la hora de realizar búsquedas, debido a la cantidad de sinónimos y términos polisémicos que existen. Se debe tener en cuenta el resto de términos en la consulta para obtener más información del contexto e intentar desambiguar los términos.

Para la realización de búsquedas semánticas dentro del contexto sanitario nos apoyamos en el uso de elementos como un metatesauro, que recoge todos los conceptos de interés de los diferentes subdominios sanitarios, y una red semántica capaz de jerarquizar y categorizar dichos conceptos. La red semántica establece relaciones entre los conceptos definidos en el metatesauro aportandoles valor semántico y refinando su significado.

Para enriquecer estas estructuras hacemos uso de diferentes terminologías y clasificaciones estandarizadas en el ámbito sanitario como SNOMED CT es la terminología clínica integral de mayor ámbito a nivel mundial, incluyendo más de 400.000 conceptos clínicos, relaciones jerárquicas y relaciones definitorias entre estos conceptos completando su semántica. Cada concepto tiene asociadas múltiples descripciones y sinónimos en diferentes idiomas, formando así un vocabulario para el dominio clínico.

Actualmente se está realizando un esfuerzo por extender y enriquecer estas herramientas mediante la incorporación de nuevos recursos de información y la estandarización de su contenido. De este modo se está trabajando en la generalización de los conceptos recogidos en el metatesauro de modo que puedan ser relacionados con otras clasificaciones terminológicas de amplia divulgación como la establecida por la National Library of Medicine en la categorización de UMLs (Unified Medical Language System).

Clasificación de información.
BigData: Data Governance & Data Quality

LA IMPORTANCIA DE LA CALIDAD DEL DATO:

Hoy en día, la información ha pasado a ser un recurso clave organizacional, los datos son la materia prima, y una buena gestión de ellos se está convirtiendo en un factor primordial para las organizaciones, desde Indizen os preguntamos: ¿se trabaja con datos de Calidad?, ¿es realmente un aspecto relevante en las empresas?
La calidad del dato es clave en los proyectos, no podemos olvidar que:

Los datos por sí mismos, no generan negocio. SU GESTION SÍ.

En Indizen trabajamos nuestros desarrollos teniendo muy en cuenta que el dato, sin calidad, reduce enormemente su valor para la empresa, con la finalidad de tener un sistema con una calidad de información que muestre la situación real de la empresa, y que permita al usuario llevar un control adecuado de ella.

Dentro de la gestión de la información, existen disciplinas cada una de ellas con una misión relacionadas entre sí para gestionar los datos como recurso valioso.
Dentro de estas disciplinas os vamos a hablar fundamentalmente de dos, muy importantes dentro del mundo de la gestión de la información: Data Governance y Data Quality.

 

DATA GOVERNANCE: QUÉ, CUÁNDO Y PORQUÉ.

Data Governance  es una disciplina encargada de la orquestación de gente, procesos y tecnología que permite habilitar información como un recurso de valor empresarial, y al mismo tiempo, es la encargada de mantener a los usuarios, auditores y reguladores satisfechos, usando la mejora de la calidad de los datos para retener clientes, constituyendo y guiando a nuevas oportunidades en el mercado.

Su objetivo es:

  • Permitir una mejor toma de decisiones.
  • Reducir la carga operativa.
  • Proteger las necesidades del personal con interés en los datos.
  • Proteger cada una de las necesidades de las diferentes áreas interesadas en los datos.
  • Establecer un conjunto de estándares, procesos y políticas para que rijan los datos a nivel corporativo.
  • Reducir costos y aumentar la eficacia mediante la coordinación de esfuerzos.
  • Garantizar la transparencia de los procesos.

Y sus funciones son:

  • Establecer metas: Sentencias principales que guían la operación y desarrollo de la cadena de suministro de información.
  • Definir métricas: Conjunto de medidas usadas para evaluar la efectividad del programa y los procesos de gobierno asociados.
  • Tomar decisiones: La estructura organizacional y el modelo de cambio ideológico para analizar y crear políticas de decisión.
  • Comunicar políticas: Herramientas, habilidades y técnicas usadas para comunicar decisiones políticas a la organización.
  • Medir resultados: Comparar resultados de las políticas con las metas, entradas, modelos de decisión y comunicación para proveer constante retroalimentación sobre la efectividad de la política.
  • Auditar: Herramienta usada para comprobar todo.

¿Cuándo Data Governance?. Una organización necesita cambiar de una gestión informal de datos a un Data Governance, por ejemplo cuando la gestión tradicional o sistemas de datos de la organización no son capaces de hacer frente a actividades multifuncionales relacionadas con los datos, o las regulaciones, normas, cumplimientos y requerimientos exigen un Data Governance más formal.

Principios del Data Governance:

  • Integridad.
  • Transparencia.
  • Auditabilidad.
  • Responsabilidad.
  • Gestión.
  • Control y Balance.
  • Estandarización.
  • Gestión del cambio.

 

 

DATA QUALITY QUÉ ES, EN QUÉ CONSISTE.

Es una disciplina encargada de mantener la información de las organizaciones completa, precisa, consistente, actualizada, única y, lo más importante, válida.

Esta disciplina estaría presente en las fases de análisis de datos, o también sería un aspecto importante en la generación de indicadores de seguimiento de la calidad de los datos, permitiendo saber día a día si nos desviamos de nuestro objetivo.
El primer paso antes de adquirir cualquier herramienta de Data Quality, es detectar y priorizar las áreas de enfoque, como por ejemplo elementos de datos críticos y así identificar lo que es crítico para el negocio, o simplemente el valor de los datos que no es otra cosa que el riesgo asociado de la mala calidad de los datos, una vez identificado donde queremos concentrar nuestros esfuerzos de data quality, pasamos al uso de la herramienta.

LOS 6 PROCESOS CLAVE DE DATA QUALITY:

  1. Descubrimiento: explorar modelos y/o fuentes de datos indocumentados, y así ver de una manera rápida la medición e identificación de estos.
  2. Perfilado: es una auditoría de datos, en la cual se identifica y se cuantifica los problemas de la calidad de los datos dentro de todas las fuentes, su objetivo es generar una medida tangible de la calidad de los datos al inicio, y ver si en las fuentes existen fuentes de datos duplicados, atributos redundantes, ect.
  3. Limpieza: En este proceso se definen las reglas y metas a alcanzar.
  4. Coincidencias: consiste en definir y diseñar, la limpieza, estandarización y reglas de consolidación.
  5. Consolidación: en esta etapa se implementan los procesos de mejora en la calidad de los datos, que hemos definido anteriormente en el proceso de limpieza (punto 3).
  6. Monitorización: Una vez que ya se ha implementado todos los procesos, se generan unos informes con los resultados obtenidos, incluyendo mejoras y alertas.