Category: Big Data e Inteligencia Artificial

¡Llega netContent!, una plataforma basada en Inteligencia Artificial (IA) que permite automatizar tareas relacionadas con gestión y clasificación de documentos y otros contenidos multimedia. Gracias a técnicas de IA y Procesamiento de Lenguaje Natural, la plataforma permite extraer e indexar datos además de descubrir conocimiento y detectar oportunidades.

netContent dispone de un acceso para que el cliente pueda realizar diversas gestiones tales como gestionar las reglas a aplicar, habilitar accesos, supervisar documentos y tener acceso a los dashboards con las métricas del sistema. Además, permite volcar el resultado de la gestión documental en los sistemas de gestión del cliente. En resumen, gracias a esta plataforma se puede hacer lo siguiente:

  • Clasificación automática de documentos
  • Indexación de audios  de vídeos y/o podcasts
  • Obtención de texto procedentes de documentos escaneados (OCR)
  • Obtención de tags de imágenes
  • Extracción de textos y metadatos de documentos en distintos formatos
  • Indexación avanzada de textos e imágenes
  • Descubridor de conocimiento
  • Detección de oportunidades

Además, netContent se adapta a las necesidades de cada cliente y posee otras funcionales tales como:

  • Early Warning System, para la detección temprana de oportunidades a partir de bots de búsqueda de oportunidades potenciales y su evaluación  utilizando técnicas de Inteligencia Artificial
  • La gestión documental de estas oportunidades detectadas y su vuelco en el sistema de gestión documental del cliente, si hubiere
  • Asimismo, esta gestión documental servirá para re-alimentar los modelos de Inteligencia Artificial del Early Warning System

¿Qué ventajas obtienes con netContent?

  • Ahorrar en el procesamiento de los documentos. El retorno de la inversión se obtiene por el ahorro de la mano de obra y la mejora en la calidad de los resultados. Por ejemplo, empresas del sector de la construcción u otros sectores que generan grandes volúmenes de documentos y requieren gestionarlos, como por ejemplo, clasificarlos, netContent lo gestiona de forma automática.
  • Permite generar nueva inteligencia. En este caso, el retorno de la inversión no está tanto en el ahorro -que también- si no en la puesta en valor de contenidos y documentos que debidamente tratados pueden generar nueva inteligencia que aporte valor a la propia actividad de la empresa. Por ejemplo, en un bufete de abogados que desea nuevos usos del conocimiento generado por la empresa y busca reducir el esfuerzo de compartir este conocimiento.
  • Analítica avanzada para rentabilizar el esfuerzo empresarial. Gracias a la analítica avanzada de netContent podrás optimizar y sacar partido a la gestión documental de tu empresa.
  • Desarrollo a medida y vuelco de datos en el sistema del cliente. netcontent es adaptable a las necesidades de cada cliente, desde ITELLIGENT desarollamos aquello que nuestros clientes necesite. La plataforma también permite el vuelco de los datos y/oportunidades destacadas en el sistema de gestión documental del cliente.
  • Os recomendamos un framework de Machine Learning de código abierto y multi-plataforma para C#
  • ML.NET ofrece la posibilidad de agregar el aprendizaje automático en aplicaciones de .NET, ya sea en escenarios on line o sin conexión

machine learning mlnet

¿Qué es ML.NET?

ML.NET ofrece la posibilidad de agregar el aprendizaje automático en aplicaciones de .NET, ya sea en escenarios on line o sin conexión. Con esta funcionalidad, es posible realizar predicciones automáticas usando los datos disponibles para la aplicación sin tener que estar conectado a una red.

Aprendizaje automático en ML.NET, ¿qué predicciones puede hacer?

Algunos ejemplos del tipo de predicciones que puede hacer con ML.NET son los siguientes: 

  1. Clasificación y categorización. Por ejemplo, clasificar automáticamente los comentarios de clientes en positivos y negativos
  2. Valores continuos de regresión y predicción. Por ejemplo, predecir el precio de la vivienda según el tamaño y la ubicación
  3. Detección de anomalías. Por ejemplo, detectar fraudes en transacciones bancarias
  4. Recomendaciones. Por ejemplo, realizar sugerencias de productos al consumidor on line en función de sus compras anteriores

ML.NET ofrece Model Builder (una herramienta de interfaz de usuario simple) y ML.NET CLI para que sea muy fácil crear modelos de aprendizaje automático personalizados. Estas herramientas utilizan Automated ML (AutoML), una tecnología de vanguardia que automatiza el proceso de creación de modelos con el mejor rendimiento para su escenario de Machine Learning. Lo único que se necesita es cargar tus dato y AutoML se encarga del resto del proceso de construcción del modelo.

¿En qué se caracteriza ML.NET?

  • Extendido con TensorFlow y otros..  ML.NET ha sido diseñado como una plataforma extensible para que se pueda consumir otros framework de aprendizaje automático populares tales como TensorFlow, ONNX, Infer.NET, entre otros; y tener acceso a más escenarios de machine learning, como clasificación de imágenes, detección de objetos, etc.
  • Alto rendimiento y precisión. Utilizando un conjunto de datos de revisión de Amazon de 9GB, ML.NET entrenó un modelo de análisis de sentimientos con un 95% de precisión. Otros framworks de aprendizaje automático populares no pueden procesar el conjunto de datos debido a errores de memoria. La capacitación en el 10% del conjunto de datos, para permitir que todos los framworks completen la capacitación, ML.NET ha supuesto la mayor velocidad y precisión.

¿Quieres saber más? Puedes consultar todos los tutoriales, ejemplos de código, referencia de API y otra documentación en la web de docs.microsoft.com

Estar al día de la información que se publica en los Boletines Oficiales puede suponer una importante fuente de ingresos para una empresa. Sin duda, recopilar esta información es una labor bastante ardua. Legislación, convenios, ayudas, licitaciones, subvenciones, entre otros, supone un trabajo que no resulta nada sencillo de gestionar debido al gran volumen de documentos publicados en la red y a la dispersión de sus fuentes. Pero tranquilo, en este post te ofrecemos una solución sencilla y que no supone ningún coste adicional para tu empresa.

La solución es iBOOF, un motor de búsqueda de acceso público y gratuito especializado en Open Data e información oficial de las administraciones estatales, autonómicas y provinciales en España. Básicamente, Se trata de un agregador de Boletines Oficiales españoles que incluye un servicio de avisos.  iBOOF  posee seis canales temáticos que agrupan las disposiciones publicadas en los distintos boletines oficiales en:

  1. Concursos y Licitaciones
  2. Convenios Colectivos
  3. Leyes, Decretos, Ordenes…
  4. Oposiciones y empleo
  5. Subastas: Inmuebles, concesiones
  6. Subvenciones, Ayudas

iboof 2018

Los resultados obtenidos dentro de cada temática también se pueden filtrar según diversos criterios. ¿Quieres saber cómo realizar búsquedas en  iBOOF ? En un post anterior en nuestro blog te explicamos cómo utilizar este buscador de Open Data: Cómo funciona el buscador iBOOF

Otro de los servicios que ofrece iBOOF es crear alertas mediante la suscripción por correo electrónico sobre los criterios de búsqueda que hayas establecido y recibir todas las novedades -nuevas publicaciones- que vayan apareciendo en cada uno de estas fuentes. Este servicio también es gratuito.

Por último,  iBOOF posee una base de datos única para todos los boletines en la que podemos seleccionar qué Boletín Oficial y de qué fecha queremos ver y descargarlo en PDF una vez encontrado, ¡todo sin salir de la página del buscador!

 

El Premio Turing se trata de un reconocimiento de las Ciencia de la Computación y es considerado el “Premio Nobel” en ésta área. Anualmente, este galardón es otorgado a quienes hayan contribuido de manera trascendental a este campo y concedido por la Association of Computing Machinery (ACM), la mayor agrupación de profesionales de la informática. Este premio, como su propio nombre indica, rinde homenaje a Alan M. Turing.

Alan M. Turing (1912-1954) es considerado uno de los padres de la Informática, precursor de la informática moderna que proporcionó una influyente formalización de los conceptos de algoritmo y computación. Las aportaciones más relevantes de toda su trayectoria científica en Ciencias de la Computación fueron: la maquina de Turing, Enigma,  el test de Turing, el primer programa de ajedrez para un ordenador, aportaciones al estudio de la Cibernética, entre otras.

El último Premio Turing (2018) ha sido otorgado a tres investigadores en Inteligencia Artificial: Geoffrey Hinton, Yann LeCun y Yoshua Bengio, por sus aportaciones en Deep Learning (aprendizaje profundo). Las técnicas que han desarrolló a lo largo de los 90 y 2000 han permitido grandes avances en áreas como la visión artificial y el reconocimiento de voz. Sus aportaciones han sido clave para el desarrollo de las actuales tecnologías de Inteligencia Artificial, desde coches autónomos como “Google self-driving car”, reconocimiento facial como “Face ID” de Apple hasta asistentes virtuales en el hogar como “Alexa” de Amazon.

Desde 2004, el Premio Turing es patrocinado por Google y gratifica al ganador con 1 millón de USD.

Geoffrey Hinton

Hinton (Reino Unido, 1947) es Doctor (Phd) en Inteligencia Artificial por la Universidad de Edimburgo y actualmente es profesor en el departamento de informática en la Universidad de Toronto. Desde 2013 trabaja en Inteligencia Artificial para Google. Estudió Psicología Experimental en Cambrigde; allí, alguna influencia tuvo que se inspiró en nuestra biología, la mente humana, para programar y crear las conocidas redes neuronales.

Yann LeCun

LeCun (Francia, 1960) es profesor de Plata del Courant Institute of Mathematical Sciences de la Universidad de Nueva York y vicepresidente, jefe científico de Inteligencia Artificial en Facebook. Sus contribuciones datan desde finales de los ochenta, inventó el algoritmo de reconocimiento óptico de caracteres y la visión por computadora utilizando Convolutional Neural Networks (CNN). Es uno de los principales creadores de la tecnología de compresión de imágenes DjVu, junto a Leon Bottou y Patrick Haffner; y co-desarrolló el lenguaje de programación Lush, junto a León Bottou.

Yoshua Bengio

Desde 1993, Bengio (Francia-Canada,  1964) es profesor en el Departamento de Ciencias de la Computación e Investigación de Operaciones en la Université de Montréal y además de ocupar la Cátedra de Investigación de Canadá en Algoritmos de Aprendizaje Estadístico, también es el fundador y director científico de Mila (Instituto de Montreal para los Algoritmos de Aprendizaje), el grupo de investigación universitario más grande del mundo en Deep Learning.

Su contribución a la investigación es innegable. Su objetivo final es comprender los principios que conducen a la inteligencia a través del aprendizaje y su investigación le ha valido múltiples premios, entre ellos, el actual Premio Turing en 2018. En este mismo año también recibió la Medalla del 50 aniversario del Ministère des Relations Internationales et de la Francophonie. Estos honores reflejan la profunda influencia de su trabajo en la evolución de nuestra sociedad. Preocupado por los impactos sociales de esta nueva tecnología, ha contribuido activamente al desarrollo de la Declaración de Montreal para el Desarrollo Responsable de la Inteligencia Artificial.