Food & Beverages

BIG DATA EN COLOMBIA

Description
Resumen de Big Data en Colombia
Published
of 17
All materials on our website are shared by users. If you have any questions about copyright issues, please report us to resolve them. We are always happy to assist you.
Related Documents
Share
Transcript
  UNIVERSIDAD NACIONAL DE COLOMBIA SEDE MANIZALES FELIPE GALEANO ROMEL SOTO ERENCIA DE PROYECTOS TECNOLOGICOS Tema Big Data en Colombia –  Data Center IBM LUZ STELLA CARDONA DOCENTE MANIZALES 12 DE marzo de 2018  INTRODUCCIÓN. Debido al gran avance que existe día con día en las tecnologías de información, las organizaciones se han tenido que enfrentar a nuevos desafíos que les permitan analizar, descubrir y entender más allá de lo que sus herramientas tradicionales reportan sobre su información, al mismo tiempo que durante los últimos años el gran crecimiento de las aplicaciones disponibles en internet (redes sociales, etc.) han sido parte importante en las decisiones de negocio de las empresas. HISTORIA  La historia del término Big Data puede ser breve, pero muchos de los cimientos de los conceptos detrás de Big Data se construyeron y establecieron hace mucho tiempo. Mucho antes de que las computadoras (tal como la conocemos hoy) eran comunes, la idea de que estábamos creando un cuerpo cada vez mayor de conocimientos para el análisis, era muy popular y había madurado en el mundo académico. Aunque podría ser fácil de olvidar, nuestra creciente capacidad de almacenar y analizar información, ha sido una evolución gradual. Aunque las cosas, sin duda, se aceleraron a finales del siglo pasado, con la invención de almacenamiento digital y de Internet. 1926 Nikola Tesla predice que en el futuro un hombre será capaz de acceder y analizar grandes cantidades de datos utilizando un dispositivo lo suficientemente pequeño que cabrá en el bolsillo. 1991 El nacimiento de Internet. Cualquier persona puede ahora ir en línea y subir sus propios datos, o analizar los datos cargados por otras personas. 1996 El precio de almacenamiento digital cae hasta el punto donde es más rentable que el papel. 1997 Google lanza su motor de búsqueda que rápidamente se convertirá en el más popular del mundo. Michael Lesk estima que el universo digital está aumentando diez veces su tamaño cada año. 1999 Las primeras ideas de Big Data. El primer uso del término Big Data en un trabajo académico: “Visually Exploring Gigabyte Datasets in Realtime (ACM)”. El primer uso  del concepto “Internet of Things” (Internet de las Cosas) en una presentación de negocios de Kevin Ashton para Procter and Gamble. 2001 Las tres “V” definida por Doug Laney para Big Data: “Volumen, Velocity, Variety”  (Volumen, Velocidad, Variedad) 2005 La Web 2.0 aumenta el volumen de datos. 2007 Emerge el uso actual del término “Big Data”.   2008 Globalmente, 9,57 zetabytes (9.570.000.000.000 gigabytes) de información se procesa por las CPUs del mundo. Se estima que 14,7 exabytes de información nueva se produciría este año. 2009 Una compañía promedio estadounidense con más de 1.000 empleados, almacena más de 200 terabytes de datos de acuerdo al informe sobre Big Data: “The Next Frontier for Innovation, Competition and Productivity” (La próxima frontera para la innovación, la competencia y la productividad) realizado por McKinsey Global Institute. 2010 Eric Schmidt, presidente ejecutivo de Google, dice en una conferencia que la cantidad de datos que ahora se están creando cada dos días, es mayor que la creada desde el comienzo de la civilización humana hasta el año 2003. 2011 El informe McKinsey señala que en 2018 los EE.UU. se enfrentará a un déficit de entre 140.000 y 190.000 científicos profesionales de datos, y advierte que cuestiones como la privacidad, la seguridad y la propiedad intelectual tendrán que ser resueltas antes de que se den cuenta de todo el valor de Big Data. 2014 El uso de Internet móvil supera a las computadoras de escritorio por primera vez 88% de los ejecutivos que respondieron a una encuesta internacional realizada GE dice que el análisis de grandes volúmenes de datos es una prioridad. DEFINICIÓN  El Big Data o Datos Masivos se refieren a sistemas informáticos basados en la acumulación a gran escala de datos y de los procedimientos usados para identificar patrones recurrentes dentro de esos datos. Datos masivos es un término que hace referencia a una cantidad de datos tal que supera la capacidad del software habitual para ser capturados, gestionados y procesados en un tiempo razonable. El volumen de los datos masivos crece constantemente. En 2012 se estimaba su tamaño de entre una docena de terabytes hasta varios peta bytes de datos en un único conjunto de datos. CARACTERISTICAS Se estima que cada 10 minutos se generan 5 exabytes de información, la misma cantidad de datos generados en toda la historia de la humanidad hasta 2003. Esto quiere decir que una persona hoy ve más información en un solo día que una persona que vivió en el año 1500 en toda su vida. Información tan grande que no podemos administrar con facilidad, pero si lo conseguimos se convierte en una herramienta muy poderosa para acercarse al consumidor con acciones muy específicas. Para entender mejor el comportamiento del Big Data debemos dividir el concepto en el que es conocido como las 7 V’s.   Volumen de información El volumen se refiere a la cantidad de datos  que son generados cada segundo, minuto y días en nuestro entorno. Es la característica más asociada al Big Data, ya que hace referencia a las cantidades masivas de datos que se almacenan con la finalidad de procesar dicha información, transformando los datos en acciones. Cada vez estamos más conectados al mundo 2.0 por lo que generamos más y más datos. Para algunas empresas, el estar en el mundo digital es algo obligatorio, por lo que la cantidad de datos generados es aún mayor. Por ejemplo, una empresa que vende sus productos únicamente a través de un canal online, le convendría implantar tecnología Big Data para procesar toda aquella información que recoge su página web rastreando todas las acciones que lleva a cabo el cliente; conocer donde cliquea más veces, cuántas veces ha pasado por el carrito de la compra, cuáles son los productos más vistos, las páginas más visitadas, etc. Velocidad de los datos La velocidad se refiere a los datos en movimiento  por las constantes interconexiones que realizamos, es decir, a la rapidez en la que son creados, almacenados y procesados en tiempo real.  Para los procesos en los que el tiempo resulta fundamental, tales como la detección de fraude en una transacción bancaria o la monitorización de un evento en redes sociales, estos tipos de datos deben estudiarse en tiempo real para que resulten útiles para el negocio y se consigan conclusiones efectivas. Variedad de los datos La variedad se refiere a las formas tipos y fuentes  en las que se registran los datos. Estos datos pueden ser datos estructurados y fáciles de gestionar como son las bases de datos, o datos no estructurados, entre los que se incluyen documentos de texto, correos electrónicos, datos de sensores, audios, vídeos o imágenes que tenemos en nuestro dispositivo móvil, hasta publicaciones en nuestros perfiles de redes sociales, artículos que leemos en blogs, las secuencias de click que hacemos en una misma página, formularios de registro e infinidad de acciones más que realizamos desde nuestro Smartphone, Tablet y ordenador. Estos últimos datos requieren de una herramienta específica, debido a que el tratamiento de la información es totalmente diferente con respecto a los datos estructurados. Para ello, las empresas necesitan integrar, observar y procesar datos que son recogidos a través de múltiples fuentes de información con herramientas cualificadas. Veracidad de los datos Cuando hablamos de veracidad nos referimos a la incertidumbre de los datos , es decir, al grado de fiabilidad de la información recibida. Es necesario invertir tiempo para conseguir datos de calidad, aplicando soluciones y métodos que puedan eliminar datos imprevisibles que puedan surgir como datos económicos, comportamientos de los consumidores que puedan influir en las decisiones de compra. La necesidad de explorar y planificar la incertidumbre es un reto para el Big Data que está a la orden del día en las compañías dedicadas al análisis de datos. Viabilidad La inteligencia empresarial es un componente fundamental para la viabilidad  de un proyecto y el éxito empresarial. Se trata de la capacidad que tienen las compañías en generar un uso eficaz del gran volumen de datos que manejan. La inteligencia competitiva también se asocia con la innovación de los equipos de trabajo y el uso de tecnologías empleadas. Una empresa inteligente analiza, selecciona y monitoriza la información con el fin de conocer mejor el mercado en el que opera, a sus clientes y diseñar estrategias eficaces. Es necesario filtrar a través de esta información y seleccionar cuidadosamente los atributos y factores que son capaces de predecir los resultados que más interesan a
We Need Your Support
Thank you for visiting our website and your interest in our free products and services. We are nonprofit website to share and download documents. To the running of this website, we need your help to support us.

Thanks to everyone for your continued support.

No, Thanks
SAVE OUR EARTH

We need your sign to support Project to invent "SMART AND CONTROLLABLE REFLECTIVE BALLOONS" to cover the Sun and Save Our Earth.

More details...

Sign Now!

We are very appreciated for your Prompt Action!

x