En Data Analytics convergen varios campos de la computación, las ciencias y la administración como análisis de texto, bases de datos, minería de datos, aprendizaje automático, estadística y procesamiento de lenguaje natural, entre otros. Data Analytics ha permitido que las empresas puedan tomar rápidas y mejores decisiones, al usar para ello datos que antes eran inaccesibles o que la tecnología no permitía procesar.
Hoy, esto es posible principalmente por el abaratamiento del hardware y la disponibilidad de los servicios de computación en la nube accesibles a las organizaciones. Con este tipo de infraestructura, ahora se pueden tratar y analizar enormes cantidades de datos (denominados Big Data) provenientes de dispositivos inteligentes, Internet, redes sociales, sensores e incluso de dispositivos que se encuentran fuera de la tierra.
El propósito de este ciclo de conferencias es dar a conocer el estado de apropiación de Data Analytics, su aplicación, así como mostrar casos exitosos.
Entrada libre, inscripciones aquí
Octubre 15, 3 - 8PM, Hemiciclo - Biblioteca
Big Data, ¿Qué tan Grande es? (más) | UK | |
Cloud Computing: Trends and Challenges - Español (más) | Colombia | |
Data Driven Analytics - A success story (más) | USA | |
Fraud Analytics: detección y prevención de fraudes en la era de Big Data (más) | Colombia | |
Big Data & Analytics, Transformando los Negocios (más) | USA | |
Semantic Big Data: Conectando y explotando grandes volúmenes de datos (más) | España | |
IBM: del Analytics a la Computación Cognitiva (más) | IBM |
Conferencistas
Ing. Miguel Angel Aranguren (Info). Ingeniero de Sistemas de la Universidad Nacional de Colombia, certificaciones en CISA, CISM, CGEIT, CISSP, CRISC e ITIL V3. Con experiencia en el desarrollo de aplicaciones para comunicaciones y seguridad. Asesor de empresas del sector privado y gubernamental en la estructuración de políticas de seguridad de la información, en análisis de computación forense y realización de pruebas de vulnerabilidad y hacking ético.
Docente invitado de las Universidades Javeriana y Nacional de Bogotá. Conferencista en eventos nacionales e internacionales como Latincacs San José, CostaRica, 2009 y la International Conference en Cancún 2010. Actualmente es Especialista de Riesgos y Seguridad en IBM para Latinoamérica, es el coordinador de certificaciones del capítulo Bogotá de ISACA y miembro del Subcomité Young Professionals en ISACA Internacional.
Dr. Alejandro Correa Bahnsen (Info). Doctor en Machine Learning de la Universidad de Luxemburgo. Ingeniero Industrial con Maestría en Ingeniería Industrial de la Universidad de los Andes. Actualmente trabaja en EasySolutions en el area de Research como Data Scientist.
Profesor de analytics y econometría en las universidades de Luxemburgo y de los Andes, respectivamente. Conferencista de Analytics en SAS Analytics (Orlando, Las Vegas, Londres, Frankfurt), SAS Global Forum (Orlando, San Francisco), IEEE International Conference on Data Mining (Vancouver, Bruselas, Dallas), IEEE International Conference on Machine Learning and Applications (Miami, Detroit) y European Conference on Data Analysis (Luxemburgo). Fundador de la comunidad Data Science Luxembourg y organizador del workshop IEEE Data Mining Case Studies (Dallas).
Dr. Cesar O. Diaz (Info). Ingeniero Eléctrico de la Universidad de los Andes, con Maestría en Ingeniería Electrónica de la Pontificia Universidad Javeriana y doctorado en informática de la Universidad de Luxemburgo. Desde 2002 se ha desempeñado como profesor de varias universidades del país, en el año 2010 empezó estudios de PhD y se desempéño como investigador de la Universidad de Luxemburgo. Actualmente es investigador postdoctoral en la Universidad de los Andes y consultor en Cloud, HPC y algoritmos energy-efficient para scheduling y resource allocation.
Dr. Ixent Galpin (Info). Profesor Titular del Departamento de Ingeniería de la Universidad Jorge Tadeo Lozano, dictando clases en pregrado en Ingeniería de Sistemas y en posgrado en la Especialización en Desarrollo de Bases de Datos. Previamente trabajó durante más de seis años como investigador asociado en el Information Management Group de la Universidad de Manchester en el Reino Unido, llevando a cabo investigación en las áreas de flujos de datos y optimización de consultas sobre plataformas de computación distribuida extremas como las redes de sensores inalámbricas.
Dr. Luis Rabelo (Info). Currently is an Associate Professor with the Department of Industrial Engineering and Management Systems at the University of Central Florida. He holds a degree in Electro-Mechanical Engineering from the Technological University of Panama and Master’s degrees from the Florida Institute of Technology in Electrical Engineering, the University of Missouri-Rolla in Engineering Management, and a Joint Masters degree in Systems Engineering & Management from the Massachusetts Institute of Technology (MIT). He received his Ph.D. in Engineering Management from the University of Missouri. Dr. Rabelo has received much recognition for his work, which includes a ONE NASA award, a Fulbright scholarship, 2 NASA Group Achievement Awards, the 2008 Technological University of Panama (UTP) Distinguished Alumni Award (Panama), the 2011 23rd Annual Hispanic Engineer National Achievement Awards Corporation (HENAAC) Education Award Winner in STEM, and the 2011 National Engineering Educator of the year award presented by the US Engineer’s Council. He has published over 250 papers in journals and conference proceedings and 3 International Patents. In addition, he has graduated 25 doctoral students and 41 MS students as advisor and co-advisor.
DR. Mo Mansouri (Info). Ingeniero Industrial de Sharif University of Technology, con Maestría en Ingeniería Industrial de la Universidad de Tehran y Doctorado en Ingeniería de Administracuión y Sistemas de George Washington University. Ha trabajado con instituciones internacionales y organizaciones no gubernamentales, actualmente es profesor del Stevens Institute of Technology.
Dr. Luís Manuel Vilches (Info). Máster de Dirección de Proyectos GIS y Doctor en Ingeniería Geográfica por la Universidad Politécnica de Madrid (España). Durante 2007 fue investigador visitante en el Information Management Group (IMG) de la Universidad de Manchester. Coautor de publicaciones en libros y revistas, realizando conferencias, asistiendo a workshops, es miembro activo del Open Geospatial Consortium (OGC) y del Instituto Panamericano de Geografía e Historia (IPGH).
Asesor y consultor internacional en proyectos de Investigación, Desarrollo e innovación (I+D+i) en áreas relacionadas con Web Semántica y ontologías, integración de información, Tecnologías geoespaciales, Knowledge Management, Open Data, Linked Data, Internet of Things, Smart Cities y Big Data. Es miembro activo del Grupo de Trabajo de la Infraestructura de Datos Espaciales de España (GTIDEE), liderando los aspectos relacionados con Web Semántica y Linked Data.
Ha participado en proyectos europeos (Towntology, DIGMAP, DynCoopNet y ENERGIC) y latinoamericanos (IDEDES y Escenarios para el análisis de las nuevas tendencias en IDE en Latinoamérica: Retos y oportunidades) y nacionales en el marco de convocatorias españolas (Geobuddies, WEBn+1, Autores 3.0, España Virtual, Ciudad2020, myBigData, etc.).
Resumen de conferencias
IBM: del Analytics a la Computación Cognitiva. El 80% de todo el universo de datos que genera la sociedad digital son datos no estructurados (texto escrito, tweets, imágenes, posts, etc.), un mundo que escapa a la capacidad de análisis de los sistemas tradicionales y que es el ámbito para el que Watson está especialmente diseñado, al entender el lenguaje natural y poseer una enorme capacidad de análisis de la información.
Watson es una plataforma tecnológica pionera, capaz de entender el lenguaje natural, procesar grandes datos para descubrir patrones y conocimiento ocultos en ellos y aprender de cada interacción. Estas características hacen que Watson represente una nueva era de la computación en la que los humanos y los ordenadores interactúan de forma más natural.
Watson imita la forma de razonar de las personas: ante una pregunta, formula hipótesis y escoge la respuesta en la que tiene un mayor nivel de confianza. Muestra los pasos que ha dado para llegar a esta respuesta de una forma clara y sencilla, es decir, presenta su razonamiento. Y, además, aprende de su experiencia, de cada interacción, así que cada vez es más inteligente.
IBM presentará la evolución de las herramientas analíticas, su uso y las más recientes tendencias incluyendo Computación Cognitiva, en especial Watson.
Fraud Analytics: detección y prevención de fraudes en la era de Big Data.
Durante el 2012 el nivel de fraude en tarjeta de crédito llego a 11.3 billones de dólares, un aumento de casi un 15% comparado con el 2011, esto demuestra el problema que el fraude representa no solo a las instituciones financieras sino también para la sociedad.
Tradicionalmente la prevención del fraude consistía en proteger físicamente la infraestructura, sin embargo con cada vez más medios y canales de pago disponibles, la información financiera se ha vuelto más susceptible a ser hurtada. Otra opción para prevenir y controlar el fraude consiste en determinar si una transacción está siendo realizada por el cliente de acuerdo con sus patrones históricos de comportamiento, este es el enfoque de Fraud Analytics.
En esta presentación se mostrara cómo es posible por medio de Fraud Analytics, determinar la probabilidad que una transacción sea o no realizada por el cliente, utilizando la información de compra de los clientes, sus interacciones con la entidad financiera, y por medio de análisis de redes sociales, unido genera bastante información. Adicionalmente, se discutirán y compararan los resultados de las comúnmente utilizadas reglas de decisión y modelos avanzados de Machine Learning.
Cloud Computing: Trends and Challenges. El estudio Making advanced analytics work for you de Harvard Business Review muestra tres estrategias para explotar totalmente las capacidades de Big Data y Analytics en una organización, estas son: 1) identificar, combinar y manejar múltiples fuentes de datos. 2) Construir modelos analíticos avanzados para predecir y optimizar resultados. 3) Transformar las capacidades de la organización de tal forma que los datos utilizados y el análisis de los mismos lleven a tomar mejores decisiones. En esta charla se mostrará como el modelo de Cloud Computing sirve para implementar cada una de las estrategias anteriormente mencionadas.
Big Data, ¿Qué tan Grande es?. Actualmente el volumen de datos a nivel mundial está creciendo un 50% al año. Una definición del término Big Data se emplea para describir conjuntos de datos cuyo volumen sobrepasa lo que las herramientas tradicionales de bases de datos pueden capturar, almacenar, gestionar y analizar. Sin embargo, yo prefiero otra definición de Big Data que considera otras dimensiones aparte del volumen, y caracteriza a Big Data mediante las tres Vs: volumen, velocidad y variedad. La velocidad hace alusión a que los flujos de datos deben ser analizados en tiempo real para que un empresa obtenga la mayor ventaja ante sus competidores. La variedad se debe a que los datos provienen de diversas fuentes, y que los datos generados son cada más heterogéneos y complejos: comprenden texto libre, datos semi-estructurados, BD relacionales e incluso flujos de video. En esta charla, se caracterizan en mayor detalle las dimensiones que comprenden Big Data, y los retos que surgen a partir de ellas.
Big Data & Analytics, Transformando los Negocios. La incorporación y el uso de las tecnologías de la información en las organizaciones afecta su estrategia a corto mediano y largo plazo. La exposición a nuevas tendencias y manejo de gran cantidad de datos (Big Data) afectan directamente sus objetivos de sostenibilidad. Al mismo tiempo estos modelos de negocio se han visto afectados debido a la tendencia creciente de los reglamentos, las amenazas y los beneficios mostrados por la falta, uso y análisis de datos, tanto de la propias organizaciones como la de sus directos competidores.
El Dr. Rabelo presenta un marco para entender, analizar, gestionar la información en una organización (Business Analytics) y exponer las metodologías y técnicas que permiten definir el rendimiento de referencia en tecnologías de la información, la determinación de las mejores prácticas, establecer metas específicas, medir los impactos financieros y evaluar, por último, los ciclos de vida de las iniciativas basadas en las prioridades de la organización.
Para muchas organizaciones sus datos están dispersos entre numerosos tipos de software en diferentes aplicaciones, a veces en diferentes geografías y en muchos formatos diferentes, sumando a esto la gran cantidad de origen de recolección de datos (Internet de las cosas) y en consecuencia encuentran dificultad a la hora de consolidar y analizar los datos. El Dr. Rabelo muestra las técnicas de Big Data Analytics que en la última década, ha sido una preocupación para muchas organizaciones (empezando por los pioneros de Google) por saber obtener una visión más clara, entendiendo su pasado y presente con el objetivo de poder predecir de manera mas adecuada su futuro.
Data Driven Analytics - A success story. We are living in the era of data abundance. The high frequency of streaming the continuous and never-ending new collections of data is changing the previously adopted approaches and models, almost in any field of science and technology.
Availability of data collected through sensing capabilities in human-centered systems of our time has made revolutionary changes in how such entities are designed, planed and viewed. It has also brought about new paradigms to the horizon of systems planning and management through applications of scientific methods and computational reasoning.
In the same manner, advancement of technology and availability of data can make a breakthrough in governing mechanisms applied to such systems. The new governing mechanisms can be adopted from the researches done in systems sciences on management of complex systems or system of systems and then institutionalized and applied to human-centered systems using the existing management frameworks.
Semantic Big Data: Conectando y explotando grandes volúmenes de datos. La cantidad de datos que se generan hoy día es tan grande, y está creciendo tan rápido, que es casi imposible utilizar herramientas convencionales para trabajar con estos nuevos conjuntos de datos. Ante este crecimiento continuado de los datos, el surgimiento de Big Data está proporcionando un nuevo escenario para llevar a cabo los procesos de captura, almacenamiento, gestión y análisis de los mismos.
Uno de los mayores obstáculos para el desarrollo del Data Analytics es la variedad de los datos, algunos estructurados, algunos numéricos, algunos totalmente desestructurados (por ejemplo, vídeo, audio).
El factor del éxito de este nuevo escenario no va a residir únicamente en cuestiones tecnológicas y/o de infraestructura, sino en la capacidad de las organizaciones de conectar los grandes y heterogéneos silos de datos que se están produciendo en la actualidad para llevar a cabo un análisis integrado de su realidad.
Esto es lo que se va a convertir en un factor clave y diferenciador para la competencia, que sustenta las nuevas oleadas de crecimiento de la productividad, y la innovación. Ante esta realidad, la combinación de Big Data y la Web Semántica se convierten en una necesidad para todas las organizaciones que traten con grandes cantidades de datos, ya que permiten disponer de masivas cantidades de datos, conectados e identificables de forma unívoca.
Así, Big Data y la Web Semántica serán fuerzas impulsoras cruciales en las economías de la próxima generación y ayudarán a tomar mejores decisiones en tiempo real.