lunes, 3 de junio de 2019

Transformación Digital en las empresas de seguros. Necesidad de una estrategia adecuada


Aunque parezca una industria más conservadora hay muchas cosas que están cambiando en la industria aseguradora a nivel mundial y a nivel local en la actual era digital.


Durante toda su historia, las compañías de seguros siempre han querido asegurarse la lealtad de sus agentes o corredores frente a otras compañías; así como la de sus clientes finales como forma de ser menos dependientes de los primeros.  Sin embargo, la irrupción de nuevas tecnologías digitales ofrece a las compañías nuevos medios atractivos y llenos de posibilidades  para lograr este fin. De esta manera, se genera  oportunidades de acceso, personalización y contacto, a costes razonables, como nunca antes se había producido. Pero también, el modelo de negocio debe adaptarse al nuevo entorno, a las exigencias de los clientes y aprovechar todas las posibilidades que ofrecen los recursos digitales para poder afrontar los retos presentes y futuros. La transformación digital de las aseguradoras es, sin duda, una oportunidad para crecer, innovar y llegar a más clientes.

Por ello, para las grandes aseguradoras, la transformación digital y la innovación disruptiva han pasado de ser conceptos futuristas y vagos a elementos de acción a corto plazo en su estrategia de compañía.

Esta transformación digital debe hacer frente retos tales como los siguientes:

  • Nuevas amenazas competitivas , entrada de nuevos players en el mercado
  • Envejecimiento tecnológico para hacer frente a la nueva generación de clientes digitales
  • Aumentando los requisitos regulatorios. Normas más exigentes y estrictas
  • Nuevos modelos de negocios , basados en la nueva sociedad digital.
  • Barreras culturales internas saber afrontar la resistencia al cambio y al nuevo entorno


No obstante, la buena noticia es que que los “early adopters” han mostrado ya como se genera valor con la acogida de estas nuevas tecnologías, tanto internamente, con una mejor eficiencia operativa, como  externamente mejorando la experiencia del consumidor y los servicios ofrecidos,
Para ello, hay una serie de capacidades clave que ayudan a una aseguradora a habilitar los pilares de su estrategia de transformación digital: 

  • Innovación: Es necesario alentar e impulsar una nueva cultura de innovación  en toda la organización.
  • Big Data & Analytics Habilitar el análisis de datos de todos los ámbitos de la compañía. Impulsar el big data para convertir los datos en conocimiento y en decisión: trabajar y decidir tomando como base el conocimiento obtenido a través de la información.
  • Metodología Agile. Agile puede constituir la base que permite a las aseguradoras crear software y experiencias de clientes digitales poderosas iterando de forma rápida y adaptándose a los gustos o disgustos de sus clientes. El enfoque en adaptarse rápidamente a la retroalimentación, un componente central de Agile, ayuda a hacer esto posible. Agile impulsa un cambio cultural más amplio en una organización que enfatiza la participación, la transparencia y el empoderamiento.. 
  • Gobierno Digital: establecer un marco de Digital Governance bien diseñado , donde dejar claro los roles, responsabilidades, autoridad en la toma de decisiones etc…Asimismo se debe comunicar la nueva visión digital de la empresa, definir el método para ejercer el gobierno del proceso de transformación digital  y los mecanismos de medición del rendimiento del  plan
  • Training & Digital Talent Es imprescindible que las aseguradoras están convencidas de la importancia de capacitar a toda la organización en competencias digitales, pero también identificar qué posiciones digitales no están cubiertas, qué objetivos tienen, qué funciones deben realizar, de qué órganos dependen, el perfil de los candidatos, la formación necesaria, el nuevo talento a potenciar y retener…
  • Nuevas Arquitecturas Digitales Con nuevas arquitecturas reactivas, que sustenten la omnicanalidad, arquitecturas de microservicios, contenedores etc.. convirtiendo a la arquitectura tecnológica en un habilitador del modelo operativo del negocio, que permite capitalizar las oportunidades que la transformación digital brinda de una manera efectiva y eficiente.

Y finalmente, en todo este journey,  hay una serie de impulsores tecnológicos del cambio que toda aseguradora debe tener en su horizonte más cercano:

  • Cloud Computing  que ayuda a las empresas a adoptar la simplificación. No sólo nos permiten acceder a los sistemas en cualquier momento y lugar, sino que además nos otorgan una escalabilidad flexible con tiempos de respuesta casi inmediatos
  • Big data & Analytics de grandes cantidades de datos para extraer y dar valor a la información,
  • RPA - La producción automatizada y robotizada que mejorar, eficientar y automatizar ciertas operaciones
  • Inteligencia Artificial. Chatbots, machine learning, computación cognitiva … todo al servicio del negocio permitiendo determinar la mejor “next action” en los servicioas actúale so en los nuevos modelos de negocio
  • Blockchain: para temas de fraude, favorecer los Seguros P2P, omentar los microseguros, e incluso se pueden sustituir los modelos de negocios basados en la intermediación de información aportada por las partes de un seguro.
  • IoT:  posibilitando una reinvención del modelo de negocio del sector asegurador que se encaminará a ofrecer a sus clientes un servicio personalizado al máximo gracias a las precisa información transmitida por dispositivos. También será importante el impacto en los seguros de hogar afectados por la domótica o los seguros de salud con los wearables


Por otro lado, la adopción de filosofías como DevOps para  obtener agilidad en su puesta en valor del cliente y en la organización de todos sus procesos o DataOps para establecer un centro para la recopilación y distribución de datos, con el mandato de proporcionar acceso controlado a la información, a la vez que protege la privacidad, las restricciones de uso y la integridad de los datos. 

miércoles, 9 de enero de 2019

DATA GOVERNANCE EN TIEMPOS DE BIG DATA

La información es indudablemente el activo de negocio más importante de toda organización. De tal manera que, un mal manejo de la información puede afectar la toma de decisiones al no haber procesos, políticas y tecnología que permitan garantizar la confiabilidad de los datos.

Las aplicaciones de negocio modernas producen información cada vez más pertinente e interactiva para los responsables de la toma de decisiones, pero en muchos casos las fuentes de datos están fragmentadas y son incoherentes. A pesar de los tremendos avances en el nivel de aplicación, casi todas las iniciativas informáticas prosperan o fracasan en función de la calidad y coherencia de los datos subyacentes. Pero además  pensemos en el mundo de Big data en donde los datos tienen comúnmente una vida útil corta y además se almacenan a gran velocidad. En estos procesos la mala calidad de los datos influye de manera más notoria.

Big data está cambiando las características de los datos de cada sistema y para hacerlos utilizables necesitan ser gobernados de una manera más segura y confiable.El papel del gobierno de datos es mantener los repositorios y los grandes volúmenes de datos del Big Data, que generalmente implica una gran cantidad de información no estructurada. Como resultado de ello, la gestión de entornos de grandes volúmenes de datos se encuentra en una etapa incipiente, y hay pocas recetas efectivas de cómo gobernar esos datos de manera eficaz.

¿Cuales deben ser las acciones principales del Gobierno de Datos? Pues serían las siguientes:
  • Planificar, monitorizar y controlar todo lo relativo a los datos. 
  • Asegurar que los datos cumplen con las demandas.
  • Reducir costes relativos a su gestión, almacenamiento y aseguramiento
  • Gestionar y desarrollar los datos como uno de los principales  activos de negocio
Los objetivos del marco de gobierno, consisten en favorecer los resultados empresariales. Éstos pueden resumirse en dos: Obtención de beneficios para todas las partes interesadas (Accionistas, empleados, clientes, proveedores y la sociedad en general, cada parte en su justa medida).La permanencia en el tiempo de la empresa.

El Gobierno de Datos (Data Governance) tiene por objeto asegurarse que los datos son siempre fiables y válidos en cada contexto empresarial, que su calidad se mantiene a lo largo del tiempo y que existen mecanismos de control sobre quién puede hacer qué con los datos en cada momento. Todo ello con el objetivo apalancar los datos como un activo corporativo de gran valor empresarial.

Por todo ello se puede concluir que BIG DATA SI! pero NO SIN GOBIERNO DE DATOS!

martes, 20 de noviembre de 2018

Como afrontar la revolución digital en las empresas

El 90% de los datos almacenados en el mundo se ha generado en los últimos dos años y el 99% de ellos ya están digitalizados. La revolución digital del siglo XXI se acelera e impone cambios también a las empresas.

Esta revolución afecta a todas las industrias. Desde el sector salud a la banca , desde retail hasta las telcos, la transformación digital está alterando el status quo para líderes de la tecnología en todo el mundo. La comprensión de las tendencias y tecnologías necesarias para transformar las cosas y el cómo realizar esta transformación para beneficiar a los consumidores de hoy son  los elementos críticos para su éxito.

Desde mi punto de vista los acontecimientos descritos aquí son sólo el comienzo de un cambio radical en nuestra experiencia humana. De hecho, estas innovaciones no están reservadas para una sola nación o continente. Esta revolución basada en la tecnología es la  primera en llegar y el impacto de todos los rincones del planeta se produce muy rápidamente.

Cada generación cree que vive por momentos notables y cambiantes. Y eso es probablemente cierto. Pero las grandes transformaciones, más recientemente, como las de ambas revoluciones agrícola e industrial, no suceden muy a menudo. Estos cambios son un interruptor que cambia el curso del destino humano. Algunos han acuñado nuestra era como la revolución de la información. Pero el surgimiento de la era de la información ha sido meramente el precursor y un atisbo de lo que vendrá.

La verdadera revolución es la convergencia de muchas cosas. Todas revoluciones requieren algo más que unos pocos elementos para su eclosión. Históricamente han requerido una alineación única de cualidades tales como las condiciones económicas y políticas, la predisposición para el cambio, la demografía y un catalizador.

Hoy se puede observar que se produce mucho de todo esto. Por supuesto, hoy en día el catalizador es Internet. Es también la facilidad con la que muchos de nosotros ahora pueden producir innovación digital (creación de nuevo valor a través de medios electrónicos, no analógicos). Se trata también de la disponibilidad a bajo costo, las redes mundiales de comunicación ubicuas con una gran cantidad de dispositivos conectados. También resulta muy importante el almacenamiento basado en la nube de coste muy bajo Con el almacenamiento de bajo coste se produce una fácil acumulación de grandes volúmenes de datos y cuando se combinan con el hecho de que hay tantas oportunidades para recoger los datos; nuevos usos y grandes valores de negocio pueden derivarse de ello.

Hay un nuevo orden mundial que es exclusivo de nuestro tiempo, que también está permitiendo este cambio. No menos importante la aparición de la prosperidad en muchas partes del mundo y el impresionante aumento de las naciones BRIC.
Esto significa más competencia y significa más innovación. Todas estas cosas son además convergentes para producir una significativa perturbación social y empresarial de base tecnológica.

Empresas exitosas en la Economía del Conocimiento operan en mercados muy concurridos bajo criterios probados de eficiencia y eficacia. Invierten en tecnologías de última generación para potenciar su perfil competitivo. Creen en el talento y compromiso de su gente para transformar una visión empresarial en gratificantes realidades de negocios. Desarrollan proyectos de corte innovador para cautivar una y otra vez a sus clientes, y generar bienestar, tanto individual como colectivo.

Pero es necesario tener en cuenta varios factores para poder llevar a cabo con éxito esta transformación digital. Entre ellos se puede destacar los siguientes:


  • Gestión de riesgos Digital  El riesgo, la gobernanza y el cumplimiento - tres simples palabras que suponen un peso asombroso de importante significado para cualquier negocio, en cualquier parte del mundo. Muchas empresas reconocen el reto de tener la gestión de riesgos, políticas de gobierno y de los procedimientos de cumplimiento donde hace todavía cinco años pocos hubieran previsto estos requisitos en el horizonte. A medida que nuestros mundos de BYOD, de TI, la IOT y esta sociedad siempre conectada  impregna todos los rincones del mundo, el índice de riesgo ha crecido de manera exponencial para todo tipo de empresas. Tanto es así que Gartner predice que para el año 2017, un tercio de las grandes empresas que participan en los modelos de negocio y actividades digitales tendrá un oficial de riesgo digital o un equivalente
  • La predisposición al cambio y la gestión del mismo La participación en la revolución digital requiere un cambio; la adquisición de nuevas habilidades y conocimientos; nuevos sistemas y procesos; nuevas asociaciones; nuevas formas de colaboración y la inversión en nuevas personas, programas y tecnologías. Cambiar a esta escala puede crear gran incertidumbre, muchas dudas y muchas otras barreras reales o percibidas.Es imprescindible disponer de una buena política de gestión de este cambio tan brutal y alinear a toda la organización en el mismo.





sábado, 21 de enero de 2017

La revolución en el tratamiento de la información en 2017


Se ha escrito muchas líneas sobre que este año recién comenzado va a producirse una autentica revolución en el tratamiento de la información. La penetración cada vez más intensa del Big Data en las empresas, la utilización del machine learning y la inteligencia artificial en la customer experience y la creación de factorías de elaboración de algoritmos a gran escala va a suponer un cambio de paradigma en el mercado tecnológico y su relación con las empresas.

Uno de las conclusiones claras de todos estos cambios es que la tecnología esta yendo más rápida que nosotros mismos. Y donde este terremoto tecnológico se hace más evidente es el mundo del tratamiento de la información. Cada vez salen más herramientas y componentes que abren nuevas posibilidades para sacar valor y conocimiento a la información. Muchas de estas tecnologías están asociadas al  denominado Big Data, pero yo , al igual que Eduardo Valencia, autor del interesante libro Data Coaching, considero necesario hablar ya de tecnologías de tratamiento de datos en general y dejar atrás el término BIG de Big Data. ¿Y qué nuevas oportunidades abren estas nuevas tecnologías? Voy a contar algunas de las que me parecen más interesantes:


  • El dato como elemento central de las decisiones de las compañías. Cada vez existen más proyectos de data driven company. En estas compañías se implementa la democratización de la información, la analítica avanzada y el autoservicio de  la información para la ayuda en la toma de decisiones. En estos proyectos el gobierno del dato, el cambio cultural , la aparición de nuevos roles orientados a los datos, el establecimiento de métricas y metodologías para que los datos fluyan a través de las diferentes áreas resultan elementos claves. 

  • Análisis facial, gestual y de sentimientos a través de técnicas de deep learning para anticipar comportamientos en las personas y determinar perfiles más exactos, utilizando sus huellas digitales. Sus aplicaciones en el mundo empresarial son cada vez más demandadas, ya que permiten conocer mejor a sus clientes, al mercado y los competencias. Muy interesante el proyecto Open Face https://cmusatyalab.github.io/openface/  una aplicación Python y Torch de reconocimiento facial con redes neuronales basada en el CVPR 2015. Ejemplos interesantes de esta tecnologías aplicadas al mundo retail los podemos ver en este vídeo: https://www.youtube.com/watch?v=XJfN_PQMvUc 

  •  Nuevas formas de visualización de los datos  provenientes del Big Data. Integración de la realidad virtual en las capas de visualización, visualización en tiempo real o visualización de eventos complejos. La creatividad en la visualización de los datos permite analizar en una sola pantalla  correlaciones impensables en los mismos con las tecnologías tradicionales, En el siguiente artículo podemos ver como la VR revoluciona el Data Visualization: http://www.forbes.com/sites/bernardmarr/2016/05/04/how-vr-will-revolutionize-big-data-visualizations/#705946bf4ac5  La idea no es nueva, VR ha estado alrededor de la explotación de los datos pero resultaba una herramienta costosa. Hace varios años, los ingenieros de Goodyear trabajaron con el pionero de la VR, el Dr. Robert Maples, para desarrollar una simulación completa de sus neumáticos de competición basada en su conjunto de datos históricos. La simulación permitió que los efectos de cada pequeño cambio variable en el rendimiento del neumático fuera modelado y visualizado en tiempo real VR. El objetivo de la simulación era encontrar la respuesta a la pregunta 'por qué estaban perdiendo carreras' y la visualización les permitió encontrar sus respuestas en cinco minutos. Este es un gran ejemplo del aumento en el ancho de banda de los datos que conduce a ideas mucho más rápidas.
  • Uso del dark data. Las compañías comenzarán a troll la abundancia de información que está contenida en documentos en papel, fotos, videos y otros activos corporativos que están durmiendo en bóvedas y armarios de almacenamiento, pero que podrían ser utilizados en gran agregación de datos. Estos activos pueden ofrecer a las organizaciones una visión más completa de las tendencias históricas de rendimiento y ciclos de productos que pueden ser útiles para la planificación. Los datos también pueden proporcionar evidencia de apoyo para infracción de marca registrada y / o reclamaciones de violación de propiedad intelectual.

  • Uso de la inteligencia artificial En casos como la creación de precios dinámicos: los algoritmos permiten la automatización del precio basado en la demanda Impulsado por las aplicaciones informáticas y analíticas de alto rendimiento, el precio dinámico permite a los minoristas poner precio a los artículos en un momento determinado según la capacidad percibida de un cliente en particular y la voluntad de pago.Los precios en algunos sitios web y aplicaciones cambian ahora minuto a minuto. Por ejemplo, Uber introdujo su algoritmo de pricing para permitir que los precios aumenten automáticamente en momentos de máxima demanda. En los últimos años se ha incrementado enormemente el volumen de datos del consumidor del que disponen los responsables de marketing. Estos permiten a las marcas detectar rápidamente tendencias y reaccionar introduciéndolos en su marketing y su relación con consumidor.  Según crece la cantidad de datos, el aprendizaje automático irá agilizando paulatinamente el proceso, siendo capaz de asimilar la información de una gran variedad de fuentes e identificando rápidamente patrones de comportamiento.El uso de AI en el análisis de tendencias ayudará a los responsables de marketing a estar siempre un paso por delante tanto en tendencia como en competencia. Los especialistas en contenido serán capaces de crear un conjunto de mensajes que puedan ser rápidamente entregados a los consumidores, de acuerdo con las tendencias de mercado.Los equipos de desarrollo de productos también estarán mejor equipados para mantenerse al tanto de las necesidades de creadas por las últimas tendencias.

Estamos viviendo tiempos muy interesantes. Con tantos datos, económicos y accesibles, es difícil saber qué va a pasar.  Sin embargo, lo que sí sabemos es que estamos empezando a hacer posible lo imposible y tendrá una profunda trascendencia.
Viene un tren de cambios a toda velocidad, ante el que no debemos quedarnos quietos para que nos atropelle sino subirnos a él. ¿Quién sabe dónde estaremos dentro de 10 años? ¿Quien sabe que vendrá  nuevo en el próximo?



domingo, 8 de enero de 2017

2017: La batalla sobre el procesamiento de datos en Streaming

Hacía mucho tiempo que no escribía en el blog...En todo este tiempo me han pasado muchas cosas y también ha habido grandes cambios en tecnología. El Big Data por fin resulta una realidad, he podido experimentar y disfrutar de grandes proyectos e implementaciones sobre esta tecnología y esto solo acaba de empezar. Donde ahora predomina el procesamiento bacth , este año la estrella será el procesamiento en streaming. Donde antes me pedían batch y procesamiento veloz de grandes cantidades de datos cada vez recibiré más peticiones de procesamiento en tiempo real. Las empresas ya comienzan a estar preparadas para ello. Este hecho supone una nueva revolución(otra más) dentro del mundo del Big Data. Echemos un vistazo al panorama que se nos avecina.
La demanda de procesamiento de datos de forma cada vez más rápida ha ido en aumento y el procesamiento de datos en tiempo real en streaming parece ser la respuesta. Mientras que Apache Spark se sigue utilizando en muchas organizaciones para el procesamiento de datos en Big Data, otras alternativas como Apache Flink, Apache Apex o Apache Samza vienen empujando muy fuerte. De hecho, muchos piensan que Apache Flink tiene todo el potencial de reemplazar a Apache Spark debido a su capacidad de procesar datos en tiempo real. Por supuesto, la opinión sobre si Flink puede reemplazar a Spark todavía resulta algo ligera debido a que Flink aún tiene pocas puestas en producción de gran envergadura. Pero el procesamiento en tiempo real y la baja latencia de datos son dos de sus características más atractivas. Al mismo tiempo, se debe considerar que Apache Spark probablemente no perderá a corto plazo su posición porque sus capacidades de procesamiento batch siguen siendo relevantes.

Hay que tener en cuenta que aparte de todas las ventajas del procesamiento por lotes, un procesamiento en streaming que tiene baja latencia de datos aporta más información sobre datos rápidamente. Por lo tanto, ofrece la posibilidad de averiguar qué está pasando en tiempo real. Además de un procesamiento más rápido, también hay otro beneficio significativo: se dispone de más tiempo para diseñar una respuesta apropiada a los eventos. Por ejemplo, en el caso de detección de anomalías, una menor latencia y una detección más rápida permite identificar la mejor respuesta que es clave para evitar daños en casos como ataques web, daños en infraestructura o equipos industriales, respuesta ante peticiones de clientes. Por lo tanto, puede evitar pérdidas sustanciales.

Un vistazo a las alternativas

Apache Flink es una herramienta de procesamiento de datos que permite el procesamiento de grandes volúmenes de datos rápidamente con baja latencia de datos y alta tolerancia a fallos en sistemas distribuidos a gran escala. Su característica definitoria es su capacidad de procesar datos en tiempo real.

Apache Flink comenzó como un proyecto académico de código abierto, llamado entonces Stratosphere. Más tarde, se convirtió en un incubator  de Apache Software Foundation. Para evitar conflictos de nombre con otro proyecto, el nombre cambió a Flink.

Desde que fue agregado a la Fundación de Software Apache, tuvo un aumento bastante rápido como una herramienta de procesamiento de datos y en 8 meses, había comenzado a captar la atención de un público más amplio.

Apache Apex  posibilita procesar grandes cantidades de datos in-motion a través de unica plataforma altamente escalable,  fácilmente operable, de alto rendimiento, de baja latencia y tolerante a fallos con garantía de procesamiento correcto. Una plataforma nativa de Hadoop YARN de nivel empresarial, Apache Apex con su arquitectura de procesamiento de flujo unificado puede utilizarse para casos de uso en tiempo real y de procesamiento batch. También proporciona una API sencilla que permite a los usuarios escribir o reutilizar código Java genérico para configurar aplicaciones de datos grandes

Comparación entre Spark y Flink

Procesamiento de datos

Spark procesa los datos en modo batch mientras que Flink procesa los datos en tiempo real. Spark procesa fragmentos de datos, conocidos como RDD, mientras que Flink puede procesar filas tras filas de datos en tiempo real. Por lo tanto, aunque una latencia de datos mínima siempre está allí con Spark, no es así con Flink.

Iteraciones

Spark admite iteraciones de datos en lotes, pero Flink puede iterar sus datos de forma nativa usando su arquitectura streaming.

Comparación con APEX

Apex es una plataforma YARN, lo que significa que está vinculado a Hadoop (Flink y Spark por ejemplo no). Su base es  la biblioteca Apache Malhar que le ofrece bloques de construcción (operadores) para el procesamiento de flujo. Basta con derivar su clase de su operador (por ejemplo, el operador AbstractFileInputOperator) e implementar las clases que necesita

En resumen, se avecina un año apasionante siguiendo de cerca la evolución de estas herramientas, si tenemos en cuenta además el crecimiento del machine laerning en streaming, los cambios tecnológicos que se avecinan resultan apasionantes

martes, 27 de enero de 2015

Apache Spark, el nuevo protagonista de Big Data

Apache Spark es un framework de código abierto, de procesamiento  de datos e paralelo que complementa Hadoop para hacer más fácil el desarrollo de aplicaciones Big Data unificadas que combinan procesamientos batch, streaming, y análisis interactivos de todos sus datos.

Spark ofrece tal potencia que para analistas y científicos de datos que se basan en algoritmos iterativos (por ejemplo, la agrupación / clasificación), Spark es 10-100 veces más rápido que MapReduce en entrega de datos lo que posibilita amplias posibilidades en las tomas de decisiones de negocio.

Spark es:
  • Muy Veloz: Procesamiento de datos hasta 100 veces más rápido que MapReduce, tanto-en la memoria y en el disco
  • Potente: escribir aplicaciones paralelas sofisticados rápidamente en Java, Scala, o Python sin tener que pensar en términos de sólo "mapa" y "reducir" los operadores
  • Integrado: Spark está profundamente integrado con  CDH (Distribución Haddop de Cloudera), capaz de leer todos los datos en HDFS y desplegar a través de Cloudera , procesos en tiempo real.
Mediante el centro de datos empresarial de Cloudera incluyendo Spark, se puede implementar flujos de trabajo y  analíticas poderosas de extremo a extremo, que comprenden el procesamiento de los datos batch, consulta interactiva, minería de datos en profundidad, y aplicaciones en tiempo real desde una única plataforma común. No es necesario mantener sistemas separados - con datos separados, metadatos, seguridad, gestión - que conducen rápidamente a la complejidad y a costes elevados.

Un esquema de la arquitectura de Spark , lo podemos ver en la siguiente imagen:


Spark está escrito en Scala por lo que antes de instalar Spark , hay que instalar Scala. Una guía de instalación de Spark la podemos encontrar aquí http://java.dzone.com/articles/apache-spark-fast-big-data

Además posee wrappers para Python y Java.

Se trata además de un proyecto muy activo y con un número de contribuidores en continuo crecimiento.

Finalmente reseñar que existe amplia documentación para su aprendizaje totalmente gratuita.




viernes, 14 de noviembre de 2014

Infografía del Big Data para el 2015

En la siguiente entrada os presento la siguiente infografía sobre el Big Data en el 2015, recogida de la página del centro de Innovación del BBVA : https://www.centrodeinnovacionbbva.com/infografia/big-data-es-hora-de-generar-valor-de-negocio-con-los-datos y la idea de generar valor de negocio en la información disponible actualmente en las empresas.Recordad que según el IDC existe una oportunidad US$ 1.6 trillones en ingresos a lo largo de los próximos cuatro años,relacionada con este sector. (Fuente: http://gestion.pe/tecnologia/big-data-nueva-moneda-mundo-negocios-2110577) hay que aprovecharla!!