Cursos de Big Data

Big Data Training

Big Data is a term that refers to solutions destined for storing and processing large data sets. Developed by Google initially, these Big Data solutions have evolved and inspired other similar projects, many of which are available as open-source. Some examples include Apache Hadoop, Cassandra and Cloudera Impala. According to Gartner’s reports, BigData is the next big step in IT just after the Cloud Computing and will be a leading trend in the next several years.

NobleProg onsite live BigData training courses start with an introduction to elemental concepts of Big Data, then progress into the programming languages and methodologies used to perform Data Analysis. Tools and infrastructure for enabling Big Data storage, Distributed Processing, and Scalability are discussed, compared and implemented in demo practice sessions.

BigData training is available in various formats, including onsite live training and live instructor-led training using an interactive, remote desktop setup. Local BigData training can be carried out live on customer premises or in NobleProg local training centers.

Testimonios de los Clientes

Introductory R for Biologists

What did you like the most about the training?:

I liked the fact that we were all the time busy programming, so I had to focus the whole time.

Katarzyna Hutnik - University of Oxford, Department of Oncology

Beyond the relational database: neo4j

Flexibility to blend in with Autodata related details to get more of a real world scenario as we went on.

Autodata Ltd

Beyond the relational database: neo4j

The trainer did bring some good insight and ways to approach developing a graph database. He used examples from the slides presented but also drew on his own experience which was good.

Autodata Ltd

IoT (Internet of Things) for Entrepreneurs, Managers and Investors

Some new and interesting ideas. Meeting and interacting with other attendees

TECTERRA

Cassandra for Developers

There was a lot of knowledge and material shared that will help me to do my current tasks.

Miguel Fernandes - Farfetch Portugal - Unipessoal, Lda

Cassandra for Developers

The last exercise was very good.

José Monteiro - Farfetch Portugal - Unipessoal, Lda

Beyond the relational database: neo4j

The trainer did bring some good insight and ways to approach developing a graph database. He used examples from the slides presented but also drew on his own experience which was good.

Autodata Ltd

Spark for Developers

I think the trainer had an excellent style of combining humor and real life stories to make the subjects at hand very approachable. I would highly recommend this professor in the future.

Neural Network in R

new insights in deep machine learning

Josip Arneric - Faculty of Economics and Business Zagreb

Hadoop Administration

What did you like the most about the training?:

Detailed on each tool.

Amber Mehrotra - NIIT Limited

Spark for Developers

I think the trainer had an excellent style of combining humor and real life stories to make the subjects at hand very approachable. I would highly recommend this professor in the future.

Administrator Training for Apache Hadoop

Big competences of Trainer

Grzegorz Gorski - OPITZ CONSULTING Deutschland GmbH

Administrator Training for Apache Hadoop

Trainer give reallive Examples

Simon Hahn - OPITZ CONSULTING Deutschland GmbH

Spark for Developers

The trainer made the class interesting and entertaining which helps quite a bit with all day trainings

Ryan Speelman -

Cassandra for Developers

Very good explanations with in depth examples

Rui Magalhaes - Farfetch Portugal - Unipessoal, Lda

Administrator Training for Apache Hadoop

Many hands-on sessions.

Jacek Pieczątka - OPITZ CONSULTING Deutschland GmbH

Solr for Developers

The trainer has provided great example for each topic

Onoriode Ikede - Government of Prince Edward Island

Hadoop Administration

What did you like the most about the training?:

Detailed on each tool.

Amber Mehrotra - NIIT Limited

Semantic Web Overview

He was interactive

Suraj - PointCross

Beyond the relational database: neo4j

The trainer did bring some good insight and ways to approach developing a graph database. He used examples from the slides presented but also drew on his own experience which was good.

Autodata Ltd

A practical introduction to Data Analysis and Big Data

Overall the Content was good.

Sameer Rohadia - Continental AG / Abteilung: CF IT Finance

Cassandra for Developers

Topics approached. Very complete.

Carlos Eloi Barros - Farfetch Portugal - Unipessoal, Lda

Cassandra for Developers

All technical explanation and theoretical introduction

André Santos - Farfetch Portugal - Unipessoal, Lda

Spark for Developers

Richard is very calm and methodical, with an analytical insight - exactly the qualities needed to present this sort of course

Kieran Mac Kenna - BAE Systems Applied Intelligence

Spark for Developers

We know know a lot more about the whole environment

John Kidd - Cardano Risk Management

Cassandra for Developers

The practical exercises and examples of implementing examples of real models and contexts

Leandro Gomes - Farfetch Portugal - Unipessoal, Lda

Cassandra Administration

The 1:1 style meant the training was tailored to my individual needs.

Andy McGuigan - Axon Public Safety UK Limited

A practical introduction to Data Analysis and Big Data

presentation of technologies

Continental AG / Abteilung: CF IT Finance

A practical introduction to Data Analysis and Big Data

Willingness to share more

Balaram Chandra Paul - MOL Information Technology Asia Limited

Introductory R for Biologists

What did you like the most about the training?:

I think the trainer was brilliant.

A fully qualified teacher with training experience.

Enric Domingo - University of Oxford, Department of Oncology

Beyond the relational database: neo4j

Flexibility to blend in with Autodata related details to get more of a real world scenario as we went on.

Autodata Ltd

Cassandra for Developers

The amount of exercises. We could immediately apply the knowledge shared and ensure the information was on point.

Joana Pereira - Farfetch Portugal - Unipessoal, Lda

Hadoop for Developers

The trainer clearly understood the subject matter very well. He managed to articulate the subject areas well and demonstrated using practicals how to apply that knowledge.

Matthew Tindall - Knowledgepool

Data Mining & Machine Learning with R

The trainer was so knowledgeable and included areas I was interested in

Mohamed Salama - Edmonton Police Service

Solr for Developers

He is provided great example for each topic

Onoriode Ikede - Government of Prince Edward Island

Neural Network in R

Graphs in R :)))

- Faculty of Economics and Business Zagreb

Cassandra for Developers

I already using and have a application in production with cassandra so mostly of the topics i already know but the data modeling and advanced topics are a lot interesting.

Tiago Costa - Farfetch Portugal - Unipessoal, Lda

Spark for Developers

Ernesto did a great job explaining the high level concepts of using Spark and it's various modules.

Michael Nemerouf -

A practical introduction to Data Analysis and Big Data

It covered a broad range of information.

Continental AG / Abteilung: CF IT Finance

Neural Network in R

We gained some knowledge about NN in general, and what was the most interesting for me were the new types of NN that are popular nowadays.

Tea Poklepovic - Faculty of Economics and Business Zagreb

Solr for Developers

He is provided great example for each topic

Onoriode Ikede - Government of Prince Edward Island

Subcategorías

Programas de los Cursos de Big Data

Código Nombre Duración Información General
datamin Minería de Datos 21 horas Curso puede ser proporcionado con cualquier herramienta, incluyendo libre de código abierto de minería de datos de software y aplicaciones
osovv Descripción de OpenStack 7 horas El curso está dedicado a ingenieros y arquitectos de TI que buscan una solución para alojar una nube IaaS (Infraestructura como servicio) privada o pública. Esta es también una gran oportunidad para que los administradores de TI obtengan conocimiento sobre las posibilidades que podrían ser habilitadas por OpenStack. Antes de gastar mucho dinero en la implementación de OpenStack, podría considerar todos los pros y contras asistiendo a nuestro curso. Este tema también está disponible como consultoría individual. Objetivo del curso: Obtener conocimientos básicos sobre OpenStack
ApHadm1 Apache Hadoop: manipulación y transformación del rendimiento de los datos 21 horas Este curso está dirigido a desarrolladores, arquitectos, científicos de datos o cualquier perfil que requiera acceso a los datos de forma intensiva o regular. El enfoque principal del curso es la manipulación y transformación de datos. Entre las herramientas del ecosistema de Hadoop, este curso incluye el uso de Pig y Hive, que se utilizan mucho para la transformación y manipulación de datos. Esta capacitación también aborda las métricas de rendimiento y la optimización del rendimiento. El curso es completamente práctico y está marcado por presentaciones de los aspectos teóricos.
flink Flink for scalable stream and batch data processing 28 horas Apache Flink is an open-source framework for scalable stream and batch data processing. This instructor-led, live training introduces the principles and approaches behind distributed stream and batch data processing, and walks participants through the creation of a real-time, data streaming application. By the end of this training, participants will be able to: Set up an environment for developing data analysis applications Package, execute, and monitor Flink-based, fault-tolerant, data streaming applications Manage diverse workloads Perform advanced analytics using Flink ML Set up a multi-node Flink cluster Measure and optimize performance Integrate Flink with different Big Data systems Compare Flink capabilities with those of other big data processing frameworks Audience Developers Architects Data engineers Analytics professionals Technical managers Format of the course Part lecture, part discussion, exercises and heavy hands-on practice
sparkpython Spark and Python for Big Data with PySpark 21 horas Spark is a data processing engine used in querying, analyzing, and transforming big data. Python is a high-level programming language famous for its clear syntax and code readibility. PySpark allows users to interface Spark with Python. In this instructor-led, live training, participants will learn how to use Python and Spark together to analyze big data as they work on hands-on exercises. By the end of this training, participants will be able to: Learn how to use Spark with Python to analyze Big Data Work on exercises that mimic real world circumstances Use different tools and techniques for big data analysis using PySpark Audience Developers IT Professionals Data Scientists Format of the course Part lecture, part discussion, exercises and heavy hands-on practice
apacheh Capacitación de Administrador para Apache Hadoop 35 horas Audiencia: El curso está dirigido a especialistas en TI que buscan una solución para almacenar y procesar grandes conjuntos de datos en un entorno de sistema distribuido Gol: Conocimiento profundo sobre administración de clúster de Hadoop.
altdomexp Pericia en el Dominio de Analytics 7 horas Este curso forma parte del conjunto de habilidades de Data Scientist (Dominio: Analytics Domain Expertise).
teraintro Fundamentos de Teradata 21 horas Teradata es uno de los sistemas de gestión de bases de datos relacionales. Es principalmente adecuado para la construcción de aplicaciones de almacenamiento a datos a gran escala. Teradata logró esto por el concepto de paralelismo. Este curso introduce a los delegados a Teradata
alluxio Alluxio: Unifying disparate storage systems 7 horas Alexio is an open-source virtual distributed storage system that unifies disparate storage systems and enables applications to interact with data at memory speed. It is used by companies such as Intel, Baidu and Alibaba. In this instructor-led, live training, participants will learn how to use Alexio to bridge different computation frameworks with storage systems and efficiently manage multi-petabyte scale data as they step through the creation of an application with Alluxio. By the end of this training, participants will be able to: Develop an application with Alluxio Connect big data systems and applications while preserving one namespace Efficiently extract value from big data in any storage format Improve workload performance Deploy and manage Alluxio standalone or clustered Audience Data scientist Developer System administrator Format of the course Part lecture, part discussion, exercises and heavy hands-on practice
hadoopadm Administración de Hadoop 21 horas El curso está dedicado a especialistas en TI que buscan una solución para almacenar y procesar grandes conjuntos de datos en entornos de sistemas distribuidos Objetivo del curso: Obtención de conocimientos sobre la administración de clúster de Hadoop
dmmlr Minería de Datos y Aprendizaje Automático con R 14 horas R is an open-source free programming language for statistical computing, data analysis, and graphics. R is used by a growing number of managers and data analysts inside corporations and academia. R has a wide variety of packages for data mining.
DM7 Introducción a DM7 21 horas Audience Beginner or intermediate database developers Beginner or intermediate database administrators Programmers Format of the course Heavy emphasis on hands-on practice. Most of the concepts are learned through samples, exercises and hands-on development
apex Apache Apex: Processing big data-in-motion 21 horas Apache Apex is a YARN-native platform that unifies stream and batch processing. It processes big data-in-motion in a way that is scalable, performant, fault-tolerant, stateful, secure, distributed, and easily operable. This instructor-led, live training introduces Apache Apex's unified stream processing architecture and walks participants through the creation of a distributed application using Apex on Hadoop. By the end of this training, participants will be able to: Understand data processing pipeline concepts such as connectors for sources and sinks, common data transformations, etc. Build, scale and optimize an Apex application Process real-time data streams reliably and with minimum latency Use Apex Core and the Apex Malhar library to enable rapid application development Use the Apex API to write and re-use existing Java code Integrate Apex into other applications as a processing engine Tune, test and scale Apex applications Audience Developers Enterprise architects Format of the course Part lecture, part discussion, exercises and heavy hands-on practice
smtwebint Descripción de la Web Semántica 7 horas La Web Semántica es un movimiento de colaboración dirigido por el World Wide Web Consortium (W3C) que promueve formatos comunes para los datos en la World Wide Web. La Web Semántica proporciona un marco común que permite que los datos sean compartidos y reutilizados a través de límites de aplicaciones, empresas y comunidades.
datashrinkgov Data Shrinkage para el Gobierno 14 horas
rprogda Programación R para el Análisis de Datos 14 horas Este curso es parte del conjunto de habilidades de Data Scientist (Dominio: Datos y Tecnología)
cassdev1 Cassandra para Desarrolladores (Personalizado) 21 horas This course will introduce Cassandra –  a popular NoSQL database.  It will cover Cassandra principles, architecture and data model.   Students will learn data modeling  in CQL (Cassandra Query Language) in hands-on, interactive labs.  This session also discusses Cassandra internals and some admin topics. Duration : 3 days Audience : Developers
vespa Vespa: Serving large-scale data in real-time 14 horas Vespa an open-source big data processing and serving engine created by Yahoo.  It is used to respond to user queries, make recommendations, and provide personalized content and advertisements in real-time. This instructor-led, live training introduces the challenges of serving large-scale data and walks participants through the creation of an application that can compute responses to user requests, over large datasets in real-time. By the end of this training, participants will be able to: Use Vespa to quickly compute data (store, search, rank, organize) at serving time while a user waits Implement Vespa into existing applications involving feature search, recommendations, and personalization Integrate and deploy Vespa with existing big data systems such as Hadoop and Storm. Audience Developers Format of the course Part lecture, part discussion, exercises and heavy hands-on practice
mdlmrah Model MapReduce y Apache Hadoop 14 horas El curso está destinado al especialista en TI que trabaja con el procesamiento distribuido de grandes conjuntos de datos a través de grupos de computadoras.
matlab2 Fundamentos de MATLAB 21 horas Este curso de tres días proporciona una integración exhaustiva para el MATLAB técnico de la técnica de comparación. El curso está diseñado para los usuarios finales y aquellos que buscan la revisión. En el prior de programación de la experiencia o el conocimiento de MATLAB es. Los temas de análisis de fecha, visualización, modelado y programación se exploran en todo el curso. Los temas incluyen: Working with the MATLAB interfaz de usuario Introducir comandos y crear variables Analice vectores y matrices Visualización vectorial y matriz data Trabajar con archivos de fecha Working with data types Automatización de comandos con secuencias de comandos Los programas de escritura con el control de flujo y de flujo Funciones de escritura
bigddbsysfun Big Data & Fundamentos de Sistemas de Bases de Datos 14 horas El curso forma parte del conjunto de habilidades de Data Scientist (Dominio: Datos y Tecnología).
hadoopforprojectmgrs Hadoop para jefes de proyecto 14 horas A medida que más y más proyectos de software y TI migran de procesamiento local y administración de datos a procesamiento distribuido y almacenamiento de big data, los Gerentes de Proyecto encuentran la necesidad de actualizar sus conocimientos y habilidades para comprender los conceptos y prácticas relevantes para proyectos y oportunidades de Big Data. Este curso presenta a los Project Managers al marco de procesamiento de Big Data más popular: Hadoop. En esta capacitación dirigida por un instructor, los participantes aprenderán los componentes principales del ecosistema de Hadoop y cómo estas tecnologías pueden usarse para resolver problemas a gran escala. Al aprender estas bases, los participantes también mejorarán su capacidad de comunicarse con los desarrolladores e implementadores de estos sistemas, así como con los científicos y analistas de datos que involucran muchos proyectos de TI. Audiencia Project Managers que desean implementar Hadoop en su infraestructura de TI o desarrollo existente Los gerentes de proyectos necesitan comunicarse con equipos multifuncionales que incluyen grandes ingenieros de datos, científicos de datos y analistas de negocios Formato del curso Conferencia de parte, discusión en parte, ejercicios y práctica práctica
ApacheIgnite Apache Ignite: Improve speed, scale and availability with in-memory computing 14 horas Apache Ignite is an in-memory computing platform that sits between the application and data layer to improve speed, scale and availability. In this instructor-led, live training, participants will learn the principles behind persistent and pure in-memory storage as they step through the creation of a sample in-memory computing project. By the end of this training, participants will be able to: Use Ignite for in-memory, on-disk persistence as well as a purely distributed in-memory database Achieve persistence without syncing data back to a relational database Use Ignite to carry out SQL and distributed joins Improve performance by moving data closer to the CPU, using RAM as a storage Spread data sets across a cluster to achieve horizontal scalability Integrate Ignite with RDBMS, NoSQL, Hadoop and machine learning processors Audience Developers Format of the course Part lecture, part discussion, exercises and heavy hands-on practice
rneuralnet Red Neuronal en R 14 horas Este curso es una introducción a la aplicación de redes neuronales en problemas del mundo real utilizando el software R-project.
rintrob Introducción R para Biólogos 28 horas R is an open-source free programming language for statistical computing, data analysis, and graphics. R is used by a growing number of managers and data analysts inside corporations and academia. R has also found followers among statisticians, engineers and scientists without computer programming skills who find it easy to use. Its popularity is due to the increasing use of data mining for various goals such as set ad prices, find new drugs more quickly or fine-tune financial models. R has a wide variety of packages for data mining.
cpb100 CPB100: Google Cloud Platform Big Data & Fundamentos de Aprendizaje Automático 8 horas Este curso dirigido por un instructor de un día introduce a los participantes a las grandes capacidades de datos de Google Cloud Platform. A través de una combinación de presentaciones, demostraciones y laboratorios prácticos, los participantes obtienen una visión general de la plataforma Google Cloud y una vista detallada de las capacidades de procesamiento de datos y de aprendizaje automático. Este curso muestra la facilidad, flexibilidad y potencia de las grandes soluciones de datos en Google Cloud Platform. Este curso enseña a los participantes las siguientes habilidades: Identifique el propósito y el valor de los productos clave de Big Data y de aprendizaje automático en Google Cloud Platform. Utilice Cloud SQL y Cloud Dataproc para migrar las cargas de trabajo existentes de MySQL y Hadoop / Pig / Spark / Hive a Google Cloud Platform. Emplear BigQuery y Cloud Datalab para realizar análisis de datos interactivos. Entrene y utilice una red neuronal usando TensorFlow. Emplear API de ML. Elija entre diferentes productos de procesamiento de datos en Google Cloud Platform. Esta clase está destinada a lo siguiente: Analistas de datos, Científicos de datos, Analistas de negocios comenzando con Google Cloud Platform. Responsables del diseño de oleoductos y arquitecturas para el procesamiento de datos, creación y mantenimiento de modelos de aprendizaje y modelos estadísticos, consulta de conjuntos de datos, visualización de resultados de consultas y creación de informes. Ejecutivos y responsables de la toma de decisiones de TI que evalúan Google Cloud Platform para su uso por los científicos de datos.
storm Curso de Apache Storm 28 horas Apache Storm es un motor de computación distribuido en tiempo real que se utiliza para habilitar la inteligencia empresarial en tiempo real. Lo hace al permitir que las aplicaciones procesen de forma confiable flujos de datos ilimitados (a.k.a. procesamiento de flujo). "Storm es para procesar en tiempo real lo que Hadoop es para el procesamiento por lotes". En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán cómo instalar y configurar Apache Storm, luego desarrollarán e implementarán una aplicación Apache Storm para procesar Big Data en tiempo real. Algunos de los temas incluidos en esta capacitación incluyen: Apache Storm en el contexto de Hadoop Trabajando con datos ilimitados Cálculo continuo Análisis en tiempo real Procesamiento distribuido de RPC y ETL ¡Solicite este curso ahora! Audiencia Desarrolladores de software y ETL Profesionales de mainframe Científicos de datos Analistas de Big Data Profesionales de Hadoop Formato del curso Conferencia de parte, discusión en parte, ejercicios y práctica práctica
datameer Datameer for Data Analysts 14 horas Datameer is a business intelligence and analytics platform built on Hadoop. It allows end-users to access, explore and correlate large-scale, structured, semi-structured and unstructured data in an easy-to-use fashion. In this instructor-led, live training, participants will learn how to use Datameer to overcome Hadoop's steep learning curve as they step through the setup and analysis of a series of big data sources. By the end of this training, participants will be able to: Create, curate, and interactively explore an enterprise data lake Access business intelligence data warehouses, transactional databases and other analytic stores Use a spreadsheet user-interface to design end-to-end data processing pipelines Access pre-built functions to explore complex data relationships Use drag-and-drop wizards to visualize data and create dashboards Use tables, charts, graphs, and maps to analyze query results Audience Data analysts Format of the course Part lecture, part discussion, exercises and heavy hands-on practice
bdbitcsp Inteligencia de Negocios Big Data para Proveedores de Servicios de Comunicaciones y Telecomunicaciones 35 horas Los proveedores de servicios de comunicaciones (CSP) se enfrentan a presiones para reducir los costos y maximizar el ingreso promedio por usuario (ARPU), a la vez que garantizan una excelente experiencia del cliente, pero los volúmenes de datos siguen creciendo. El tráfico global de datos móviles crecerá a una tasa de crecimiento anual compuesta (CAGR) de 78 por ciento a 2016, alcanzando 10.8 exabytes al mes. Mientras tanto, los CSP están generando grandes volúmenes de datos, incluyendo registros de detalle de llamadas (CDR), datos de red y datos de clientes. Las empresas que explotan plenamente estos datos ganan una ventaja competitiva. Según una encuesta reciente de The Economist Intelligence Unit, las empresas que utilizan la toma de decisiones orientada a datos disfrutan de un aumento de 5-6% en la productividad. Sin embargo, el 53% de las empresas aprovechan sólo la mitad de sus datos valiosos, y una cuarta parte de los encuestados señaló que gran cantidad de datos útiles no se explotan. Los volúmenes de datos son tan altos que el análisis manual es imposible, y la mayoría de los sistemas de software heredados no pueden mantenerse al día, lo que resulta en que los datos valiosos sean descartados o ignorados. Con el software de datos grande y escalable de Big Data & Analytics, los CSP pueden extraer todos sus datos para una mejor toma de decisiones en menos tiempo. Diferentes productos y técnicas de Big Data proporcionan una plataforma de software de extremo a extremo para recopilar, preparar, analizar y presentar información sobre grandes datos. Las áreas de aplicación incluyen monitoreo del rendimiento de la red, detección de fraude, detección de churn del cliente y análisis de riesgo de crédito. Big Data & Analytics escala de productos para manejar terabytes de datos, pero la implementación de tales herramientas necesitan un nuevo tipo de sistema de base de datos basado en nube como Hadoop o procesador de cálculo paralelo a gran escala (KPU, etc.) Este curso de trabajo sobre Big Data BI para Telco cubre todas las nuevas áreas emergentes en las que los CSP están invirtiendo para obtener ganancias de productividad y abrir nuevos flujos de ingresos empresariales. El curso proporcionará una visión completa de 360 ​​grados de Big Data BI en Telco para que los tomadores de decisiones y los gerentes puedan tener una visión muy amplia y completa de las posibilidades de Big Data BI en Telco para la productividad y la ganancia de ingresos. Objetivos del Curso El objetivo principal del curso es introducir nuevas técnicas de Business Intelligence de Big Data en 4 sectores de Telecom Business (Marketing / Ventas, Operación de Red, Operación Financiera y Gestión de Relaciones con Clientes). Los estudiantes serán presentados a: Introducción a Big Data-lo que es 4Vs (volumen, velocidad, variedad y veracidad) en Big Data-Generation, extracción y gestión desde la perspectiva de Telco Cómo el analista de Big Data difiere de los analistas de datos heredados Justificación interna de Big Data - perspectiva de Tcco Introducción al ecosistema de Hadoop - familiaridad con todas las herramientas de Hadoop como colmena, cerdo, SPARC - cuándo y cómo se utilizan para resolver el problema de Big Data Cómo se extraen los datos grandes para analizar para la herramienta de análisis-cómo Business Analysis puede reducir sus puntos de dolor de la recopilación y el análisis de datos a través del enfoque de panel integrado de Hadoop Introducción básica de análisis de Insight, análisis de visualización y análisis predictivo para Telco Analítica de Churn de clientes y datos grandes: cómo Big Data analítico puede reducir el abandono de clientes y la insatisfacción de los clientes en los estudios de casos de Telco Análisis de fracaso de la red y fallos de servicio de Metadatos de red e IPDR Análisis financiero-fraude, desperdicio y estimación de ROI de ventas y datos operativos Problema de adquisición de clientes: marketing objetivo, segmentación de clientes y ventas cruzadas a partir de datos de ventas Introducción y resumen de todos los productos analíticos de Big Data y donde encajan en el espacio analítico de Telco Conclusión: cómo tomar un enfoque paso a paso para introducir Big Data Business Intelligence en su organización Público objetivo Operaciones de red, Gerentes Financieros, Gerentes de CRM y altos gerentes de TI en la oficina de Telco CIO. Analistas de Negocios en Telco Gerentes / analistas de oficina de CFO Gerentes operacionales Gerentes de control de calidad
bigdatastore Big Data Solución de Almacenamiento - NoSQL 14 horas When traditional storage technologies don't handle the amount of data you need to store there are hundereds of alternatives. This course try to guide the participants what are alternatives for storing and analyzing Big Data and what are theirs pros and cons. This course is mostly focused on discussion and presentation of solutions, though hands-on exercises are available on demand.
cassadmin Administración de Cassandra 14 horas Este curso presentará Cassandra, una popular base de datos NoSQL. Cubrirá los principios, la arquitectura y el modelo de datos de Cassandra. Los estudiantes aprenderán a modelar datos en CQL (Lenguaje de consulta de Cassandra) en prácticas, laboratorios interactivos. Esta sesión también trata sobre las internas de Cassandra y algunos temas de administración.
glusterfs GlusterFS para administradores de sistemas 21 horas GlusterFS es un sistema de almacenamiento de archivos distribuidos de código abierto que puede escalar hasta petabytes de capacidad. GlusterFS está diseñado para proporcionar espacio adicional según los requisitos de almacenamiento del usuario. Una aplicación común para GlusterFS son los sistemas de almacenamiento en la nube. En esta capacitación guiada por un instructor, los participantes aprenderán cómo usar el hardware normal y listo para usar para crear e implementar un sistema de almacenamiento que sea escalable y esté siempre disponible. Al final del curso, los participantes podrán: Instale, configure y mantenga un sistema GlusterFS a escala completa. Implemente sistemas de almacenamiento a gran escala en diferentes tipos de entornos. Audiencia Administradores del sistema Administradores de almacenamiento Formato del curso Conferencia de parte, parte de discusión, ejercicios y práctica práctica.  
datavault Data Vault: Building a Scalable Data Warehouse 28 horas Data vault modeling is a database modeling technique that provides long-term historical storage of data that originates from multiple sources. A data vault stores a single version of the facts, or "all the data, all of the time". Its flexible, scalable, consistent and adaptable design encompasses the best aspects of 3rd normal form (3NF) and star schema. In this instructor-led, live training, participants will learn how to build a Data Vault. By the end of this training, participants will be able to: Understand the architecture and design concepts behind Data Vault 2.0, and its interaction with Big Data, NoSQL and AI. Use data vaulting techniques to enable auditing, tracing, and inspection of historical data in a data warehouse Develop a consistent and repeatable ETL (Extract, Transform, Load) process Build and deploy highly scalable and repeatable warehouses Audience Data modelers Data warehousing specialist Business Intelligence specialists Data engineers Database administrators Format of the course Part lecture, part discussion, exercises and heavy hands-on practice
bdbiga Inteligencia de Negocios de Big Data para Agencias del Gobierno 35 horas Los avances en las tecnologías y la creciente cantidad de información están transformando la forma en que los negocios se llevan a cabo en muchas industrias, incluyendo el gobierno. Los índices de generación de gobierno y de archivos digitales están aumentando debido al rápido crecimiento de dispositivos y aplicaciones móviles, sensores y dispositivos inteligentes, soluciones de cloud computing y portales orientados a los ciudadanos. A medida que la información digital se expande y se vuelve más compleja, la gestión de la información, el procesamiento, el almacenamiento, la seguridad y la disposición también se vuelven más complejos. Las nuevas herramientas de captura, búsqueda, descubrimiento y análisis están ayudando a las organizaciones a obtener información sobre sus datos no estructurados. El mercado gubernamental está en un punto de inflexión, al darse cuenta de que la información es un activo estratégico y el gobierno necesita proteger, aprovechar y analizar información estructurada y no estructurada para servir mejor y cumplir con los requisitos de la misión. A medida que los líderes del gobierno se esfuerzan por evolucionar las organizaciones impulsadas por datos para cumplir con éxito la misión, están sentando las bases para correlacionar dependencias a través de eventos, personas, procesos e información. Las soluciones gubernamentales de alto valor se crearán a partir de un mashup de las tecnologías más perjudiciales: Dispositivos y aplicaciones móviles Servicios en la nube Tecnologías de redes sociales y redes Big Data y análisis IDC predice que para el año 2020, la industria de TI alcanzará los $ 5 billones, aproximadamente $ 1.7 trillones más que hoy, y que el 80% del crecimiento de la industria será impulsado por estas tecnologías de la 3ª Plataforma. A largo plazo, estas tecnologías serán herramientas clave para hacer frente a la complejidad del aumento de la información digital. Big Data es una de las soluciones inteligentes de la industria y permite al gobierno tomar mejores decisiones tomando medidas basadas en patrones revelados al analizar grandes volúmenes de datos relacionados y no relacionados, estructurados y no estructurados. Pero el logro de estas hazañas lleva mucho más que la simple acumulación de cantidades masivas de datos. "Haciendo sentido de estos volúmenes de Big Datarequires herramientas de vanguardia y" tecnologías que pueden analizar y extraer conocimiento útil de las corrientes de información vasta y diversa ", Tom Kalil y Fen Zhao de la Oficina de la Casa Blanca de Política Científica y Tecnológica escribió en un post en el blog de OSTP. La Casa Blanca dio un paso hacia ayudar a las agencias a encontrar estas tecnologías cuando estableció la Iniciativa Nacional de Investigación y Desarrollo de Grandes Datos en 2012. La iniciativa incluyó más de $ 200 millones para aprovechar al máximo la explosión de Big Data y las herramientas necesarias para analizarla . Los desafíos que plantea Big Data son casi tan desalentadores como su promesa es alentadora. El almacenamiento eficiente de los datos es uno de estos desafíos. Como siempre, los presupuestos son ajustados, por lo que las agencias deben minimizar el precio por megabyte de almacenamiento y mantener los datos de fácil acceso para que los usuarios puedan obtenerlo cuando lo deseen y cómo lo necesitan. Copia de seguridad de grandes cantidades de datos aumenta el reto. Otro gran desafío es analizar los datos de manera eficaz. Muchas agencias emplean herramientas comerciales que les permiten tamizar las montañas de datos, detectando tendencias que pueden ayudarles a operar de manera más eficiente. (Un estudio reciente de MeriTalk encontró que los ejecutivos federales de TI piensan que Big Data podría ayudar a las agencias a ahorrar más de 500.000 millones de dólares mientras cumplen los objetivos de la misión). Las herramientas de Big Data desarrolladas a medida también están permitiendo a las agencias abordar la necesidad de analizar sus datos. Por ejemplo, el Grupo de Análisis de Datos Computacionales del Laboratorio Nacional de Oak Ridge ha puesto a disposición de otras agencias su sistema de análisis de datos Piranha. El sistema ha ayudado a los investigadores médicos a encontrar un vínculo que puede alertar a los médicos sobre los aneurismas de la aorta antes de que hagan huelga. También se utiliza para tareas más mundanas, tales como tamizar a través de currículos para conectar candidatos de trabajo con los gerentes de contratación.
hadoopdeva Hadoop Avanzado para Desarrolladores 21 horas Apache Hadoop es uno de los frameworks más populares para procesar Big Data en clusters de servidores. Este curso profundiza en el manejo de datos en HDFS, Pig, Hive y HBase. Estas técnicas avanzadas de programación serán beneficiosas para los desarrolladores experimentados de Hadoop. Audiencia: desarrolladores Duración: tres días Formato: conferencias (50%) y laboratorios prácticos (50%).
dsbda Ciencia de Datos para Big Data Analytics 35 horas Big data is data sets that are so voluminous and complex that traditional data processing application software are inadequate to deal with them. Big data challenges include capturing data, data storage, data analysis, search, sharing, transfer, visualization, querying, updating and information privacy.
kylin Apache Kylin: From classic OLAP to real-time data warehouse 14 horas Apache Kylin is an extreme, distributed analytics engine for big data. In this instructor-led live training, participants will learn how to use Apache Kylin to set up a real-time data warehouse. By the end of this training, participants will be able to: Consume real-time streaming data using Kylin Utilize Apache Kylin's powerful features, including snowflake schema support, a rich SQL interface, spark cubing and subsecond query latency Note We use the latest version of Kylin (as of this writing, Apache Kylin v2.0) Audience Big data engineers Big Data analysts Format of the course Part lecture, part discussion, exercises and heavy hands-on practice
deckgl deck.gl: Visualizing Large-scale Geospatial Data 14 horas deck.gl is an open-source, WebGL-powered library for exploring and visualizing data assets at scale. Created by Uber, it is especially useful for gaining insights from geospatial data sources, such as data on maps. This instructor-led, live training introduces the concepts and functionality behind deck.gl and walks participants through the set up of a demonstration project. By the end of this training, participants will be able to: Take data from very large collections and turn it into compelling visual representations Visualize data collected from transportation and journey-related use cases, such as pick-up and drop-off experiences, network traffic, etc. Apply layering techniques to geospatial data to depict changes in data over time Integrate deck.gl with React (for Reactive programming) and Mapbox GL (for visualizations on Mapbox based maps). Understand and explore other use cases for deck.gl, including visualizing points collected from a 3D indoor scan, visualizing machine learning models in order to optimize their algorithms, etc. Audience Developers Data scientists Format of the course Part lecture, part discussion, exercises and heavy hands-on practice
iotemi Internet de las Cosas (IoT) para Empresarios, Gerentes e Inversores 21 horas A diferencia de otras tecnologías, IoT es mucho más complejo que abarca casi todas las ramas del núcleo de Ingeniería: Mecánica, Electrónica, Firmware, Middleware, Cloud, Analytics y Mobile. Para cada una de sus capas de ingeniería, hay aspectos de economía, estándares, regulaciones y estado de la técnica en evolución. Esto es para los primeros tiempos, se ofrece un curso modesto para cubrir todos estos aspectos críticos de la ingeniería de IoT. Resumen Un programa de entrenamiento avanzado que cubre el estado actual del arte en Internet de las Cosas Cortes en múltiples dominios de tecnología para desarrollar el conocimiento de un sistema IoT y sus componentes y cómo puede ayudar a las empresas y organizaciones. Demo en vivo de las aplicaciones modelo IoT para mostrar implementaciones prácticas de IoT en diferentes dominios de la industria, como Industrial IoT, Smart Cities, Retail, Travel & Transportation y casos de uso relacionados con dispositivos conectados y cosas Público objetivo Gerentes responsables de los procesos comerciales y operativos dentro de sus respectivas organizaciones y quieren saber cómo aprovechar IoT para hacer que sus sistemas y procesos sean más eficientes. Emprendedores e Inversores que buscan desarrollar nuevas empresas y desean desarrollar una mejor comprensión del panorama de la tecnología IoT para ver cómo pueden aprovecharla de manera efectiva. Duración 3 días (8 horas / día) Las estimaciones para Internet of Things o el valor de mercado de IoT son masivas, ya que, por definición, el IoT es una capa integrada y difusa de dispositivos, sensores y potencia informática que superpone a industrias de consumo, de empresa a empresa y gubernamentales. El IoT representará un número cada vez mayor de conexiones: 1.900 millones de dispositivos en la actualidad y 9.000 millones en 2018. Ese año, será aproximadamente igual a la cantidad de teléfonos inteligentes, televisores inteligentes, tabletas, computadoras portátiles y PC combinadas. En el espacio para el consumidor, muchos productos y servicios ya han entrado en el IoT, incluyendo cocina y electrodomésticos, estacionamiento, RFID, productos de iluminación y calefacción, y varias aplicaciones en Internet Industrial. Sin embargo, las tecnologías subyacentes de IoT no son nada nuevas, ya que la comunicación M2M existía desde el nacimiento de Internet. Sin embargo, lo que cambió en los últimos años es la aparición de tecnologías inalámbricas de bajo costo agregadas por la abrumadora adaptación de teléfonos inteligentes y tabletas en todos los hogares. El crecimiento explosivo de los dispositivos móviles condujo a la demanda actual de IoT. Debido a las oportunidades ilimitadas en el negocio de IoT, un gran número de pequeños y medianos empresarios se subieron al carro de la fiebre del oro de IoT. También debido a la aparición de la electrónica de código abierto y la plataforma IoT, el costo de desarrollo del sistema IoT y la gestión adicional de su producción considerable es cada vez más asequible. Los propietarios de productos electrónicos existentes están experimentando presión para integrar su dispositivo con Internet o la aplicación móvil. Esta capacitación está destinada a una revisión tecnológica y empresarial de una industria emergente para que los entusiastas / emprendedores de IoT puedan comprender los conceptos básicos de tecnología y negocio de IoT. Objetivo del curso El objetivo principal del curso es presentar opciones tecnológicas emergentes, plataformas y estudios de casos de implementación de IoT en automatización de hogares y ciudades (hogares y ciudades inteligentes), Internet Industrial, salud, Gobierno, Mobile Cellular y otras áreas. Introducción básica de todos los elementos de IoT-Mechanical, electrónica / plataforma de sensores, protocolos inalámbricos y alámbricos, integración móvil a electrónica, integración móvil a empresa, análisis de datos y plano de control total Protocolos inalámbricos M2M para IoT-WiFi, Zigbee / Zwave, Bluetooth, ANT +: ¿Cuándo y dónde usar cuál? Aplicación móvil / de escritorio / web para registro, adquisición de datos y control - Plataforma de adquisición de datos M2M disponible para IoT - Xively, Omega y NovoTech, etc. Problemas de seguridad y soluciones de seguridad para IoT Plataforma electrónica de código abierto / comercial para IoT-Raspberry Pi, Arduino, ArmMbedLPC, etc. Plataforma cloud de empresa abierta / comercial para aplicaciones AWS-IoT, Azure -IOT, Watson-IOT en la nube, además de otras nubes menores de IoT Estudios de negocios y tecnología de algunos de los dispositivos comunes de IoT como Domótica, Alarma de humo, vehículos, militares, salud en el hogar, etc.
hadoopdev Hadoop para Desarrolladores (4 días) 28 horas Apache Hadoop es el marco más popular para procesar Big Data en clústeres de servidores. Este curso presentará un desarrollador a varios componentes (HDFS, MapReduce, Pig, Hive y HBase) Hadoop ecosistema.
IntroToAvro Apache Avro: Serialización de Datos para Aplicaciones Distribuidas 14 horas Este curso es para Desarrolladores Formato del curso Conferencias, práctica práctica, pequeñas pruebas en el camino para medir la comprensión
matlabfundamentalsfinance Fundamentos de MATLAB - Personalizado 35 horas Este curso proporciona una introducción completa al entorno informático técnico de MATLAB + una introducción al uso de MATLAB para aplicaciones financieras. El curso está dirigido a usuarios principiantes y aquellos que buscan una revisión. No se asume experiencia previa en programación o conocimiento de MATLAB. Los temas de análisis de datos, visualización, modelado y programación se exploran a lo largo del curso. Los temas incluyen: Trabajando con la interfaz de usuario de MATLAB Ingresando comandos y creando variables Analizando vectores y matrices Visualización de datos vectoriales y matriciales Trabajando con archivos de datos Trabajando con tipos de datos Automatización de comandos con scripts Escritura de programas con lógica y control de flujo Funciones de escritura Uso de Financial Toolbox para el análisis cuantitativo
kdbplusandq kdb+ and q: Analyze time series data 21 horas kdb+ is an in-memory, column-oriented database and q is its built-in, interpreted vector-based language. In kdb+, tables are columns of vectors and q is used to perform operations on the table data as if it was a list. kdb+ and q are commonly used in high frequency trading and are popular with the major financial institutions, including Goldman Sachs, Morgan Stanley, Merrill Lynch, JP Morgan, etc. In this instructor-led, live training, participants will learn how to create a time series data application using kdb+ and q. By the end of this training, participants will be able to: Understand the difference between a row-oriented database and a column-oriented database Select data, write scripts and create functions to carry out advanced analytics Analyze time series data such as stock and commodity exchange data Use kdb+'s in-memory capabilities to store, analyze, process and retrieve large data sets at high speed Think of functions and data at a higher level than the standard function(arguments) approach common in non-vector languages Explore other time-sensitive applications for kdb+, including energy trading, telecommunications, sensor data, log data, and machine and network usage monitoring Audience Developers Database engineers Data scientists Data analysts Format of the course Part lecture, part discussion, exercises and heavy hands-on practice
d2dbdpa De los Datos a la Decisión con Big Data y Análisis Predictivo 21 horas Audiencia Si intenta dar sentido a los datos a los que tiene acceso o desea analizar datos no estructurados disponibles en la red (como Twitter, Linked in, etc ...) este curso es para usted. Está dirigido principalmente a los tomadores de decisiones y las personas que necesitan elegir qué datos vale la pena recopilar y qué vale la pena analizar. No está dirigido a las personas que configuran la solución, esas personas se beneficiarán de la imagen grande sin embargo. Modo de entrega Durante el curso se presentarán a los delegados ejemplos prácticos de la mayoría de las tecnologías de código abierto. Las conferencias cortas serán seguidas por la presentación y los ejercicios simples por los participantes Contenido y software utilizados Todo el software utilizado se actualiza cada vez que se ejecuta el curso, así que verificamos las versiones más recientes posibles. Cubre el proceso de obtener, formatear, procesar y analizar los datos, para explicar cómo automatizar el proceso de toma de decisiones con el aprendizaje automático.
cassdev Cassandra para Desarrolladores 21 horas Este curso presentará Cassandra - una popular base de datos NoSQL. Cubrirá los principios de Cassandra, la arquitectura y el modelo de datos. Los estudiantes aprenderán el modelado de datos en CQL (Cassandra Query Language) en laboratorios prácticos e interactivos. Esta sesión también discute Cassandra internals y algunos temas de administración. Duración: 3 días Audiencia: Desarrolladores
neo4j Más allá de la Base de Datos Relacional: neo4j 21 horas Las bases de datos relacionales basadas en tablas, como Oracle y MySQL, han sido durante mucho tiempo el estándar para organizar y almacenar datos. Sin embargo, el tamaño creciente y la fluidez de los datos han dificultado que estos sistemas tradicionales ejecuten eficientemente consultas muy complejas sobre los datos. Imagínese reemplazar el almacenamiento de datos basado en filas y columnas con el almacenamiento de datos basado en objetos, por medio del cual las entidades (por ejemplo, una persona) podrían ser almacenadas como nodos de datos y luego ser consultadas fácilmente sobre la base de su vasta relación multi lineal con otros nodos . E imaginar la consulta de estas conexiones y sus objetos asociados y propiedades utilizando una sintaxis compacta, hasta 20 veces más ligero que el SQL? Esto es lo que ofrecen las bases de datos gráficas, como neo4j. En este curso práctico, estableceremos un proyecto en vivo y pondremos en práctica las habilidades para modelar, gestionar y acceder a sus datos. Comparamos y comparamos bases de datos gráficas con bases de datos basadas en SQL, así como otras bases de datos NoSQL y aclaramos cuándo y dónde tiene sentido implementar cada una dentro de su infraestructura. Audiencia Administradores de bases de datos (DBA) Analistas de datos Desarrolladores Administradores del sistema Ingenieros de DevOps Analistas de Negocios Directores de tecnología Directores de informática Formato del curso Fuerte énfasis en práctica práctica. La mayoría de los conceptos se aprenden a través de muestras, ejercicios y desarrollo práctico.
TalendDI Talend Open Studio for Data Integration 28 horas Talend Open Studio for Data Integration is an open-source data integration product used to combine, convert and update data in various locations across a business. In this instructor-led, live training, participants will learn how to use the Talend ETL tool to carry out data transformation, data extraction, and connectivity with Hadoop, Hive, and Pig.   By the end of this training, participants will be able to Explain the concepts behind ETL (Extract, Transform, Load) and propagation Define ETL methods and ETL tools to connect with Hadoop Efficiently amass, retrieve, digest, consume, transform and shape big data in accordance to business requirements Audience Business intelligence professionals Project managers Database professionals SQL Developers ETL Developers Solution architects Data architects Data warehousing professionals System administrators and integrators Format of the course Part lecture, part discussion, exercises and heavy hands-on practice
hypertable Hypertable: Deploy a BigTable like database 14 horas Hypertable is an open-source software database management system based on the design of Google's Bigtable. In this instructor-led, live training, participants will learn how to set up and manage a Hypertable database system. By the end of this training, participants will be able to: Install, configure and upgrade a Hypertable instance Set up and administer a Hypertable cluster Monitor and optimize the performance of the database Design a Hypertable schema Work with Hypertable's API Troubleshoot operational issues Audience Developers Operations engineers Format of the course Part lecture, part discussion, exercises and heavy hands-on practice Part lecture, part discussion, exercises and heavy hands-on practice
bigdatar Programación con Big Data en R 21 horas
hadoopba Hadoop para Analistas de Negocios 21 horas Apache Hadoop es el marco más popular para el procesamiento de Big Data. Hadoop proporciona una capacidad analítica rica y profunda, y está haciendo in-roads en el mundo analítico de BI tradicional. Este curso presentará a un analista a los componentes principales del sistema Hadoop eco y sus análisis Audiencia Analistas de Negocios Duración tres días Formato Conferencias y manos sobre laboratorios.
kdd Descubrir Conocimiento en Bases de Datos 21 horas El descubrimiento de conocimiento en bases de datos (KDD) es el proceso de descubrir conocimiento útil de una colección de datos. Las aplicaciones de la vida real para esta técnica de minería de datos incluyen marketing, detección de fraude, telecomunicaciones y fabricación. En este curso, presentamos los procesos involucrados en KDD y llevamos a cabo una serie de ejercicios para practicar la implementación de esos procesos. Audiencia      Analistas de datos o cualquier persona interesada en aprender a interpretar datos para resolver problemas Formato del curso      Después de una discusión teórica sobre KDD, el instructor presentará casos de la vida real que requieren la aplicación de KDD para resolver un problema. Los participantes prepararán, seleccionarán y limpiarán conjuntos de datos de muestra y utilizarán sus conocimientos previos sobre los datos para proponer soluciones basadas en los resultados de sus observaciones.
pythonmultipurpose Python Avanzado 28 horas En esta capacitación guiada por un instructor, los participantes aprenderán técnicas avanzadas de programación de Python, que incluyen cómo aplicar este versátil lenguaje para resolver problemas en áreas tales como aplicaciones distribuidas, finanzas, análisis y visualización de datos, programación de IU y scripting de mantenimiento. Audiencia Desarrolladores Formato del curso Conferencia de parte, discusión en parte, ejercicios y práctica práctica Notas Si desea agregar, eliminar o personalizar cualquier sección o tema de este curso, contáctenos para organizarlo.
nifi Apache NiFi for Administrators 21 horas Apache NiFi (Hortonworks DataFlow) is a real-time integrated data logistics and simple event processing platform that enables the moving, tracking and automation of data between systems. It is written using flow-based programming and provides a web-based user interface to manage dataflows in real time. In this instructor-led, live training, participants will learn how to deploy and manage Apache NiFi in a live lab environment. By the end of this training, participants will be able to: Install and configure Apachi NiFi Source, transform and manage data from disparate, distributed data sources, including databases and big data lakes Automate dataflows Enable streaming analytics Apply various approaches for data ingestion Transform Big Data and into business insights Audience System administrators Data engineers Developers DevOps Format of the course Part lecture, part discussion, exercises and heavy hands-on practice
psr Introduction to Recommendation Systems 7 horas Audience Marketing department employees, IT strategists and other people involved in decisions related to the design and implementation of recommender systems. Format Short theoretical background follow by analysing working examples and short, simple exercises.
dataar Análisis de Datos con R 21 horas R es un entorno de código abierto muy popular para la informática estadística, análisis de datos y gráficos. Este curso introduce el lenguaje de programación R a los estudiantes. Cubre los fundamentos del lenguaje, las bibliotecas y los conceptos avanzados. Análisis de datos y gráficos avanzados con datos del mundo real. Audiencia Desarrolladores / análisis de datos Duración 3 días Formato Conferencias y prácticas
scylladb Base de Datos Scylla 21 horas Scylla es una tienda de datos NoSQL distribuida de código abierto. Es compatible con Apache Cassandra pero tiene un rendimiento significativamente más alto y latencias más bajas. En este curso, los participantes aprenderán sobre las características y la arquitectura de Scylla mientras obtienen experiencia práctica con la configuración, administración, monitoreo y resolución de problemas de Scylla. Audiencia Administradores de bases Desarrolladores Ingenieros de sistema Formato del curso El curso es interactivo e incluye discusiones sobre los principios y enfoques para implementar y administrar bases de datos y clústeres distribuidos por Scylla. El curso incluye un componente pesado de ejercicios prácticos y práctica.
PentahoDI Pentaho Data Integration Fundamentals 21 horas Pentaho Data Integration is an open-source data integration tool for defining jobs and data transformations. In this instructor-led, live training, participants will learn how to use Pentaho Data Integration's powerful ETL capabilities and rich GUI to manage an entire big data lifecycle, maximizing the value of data to the organization. By the end of this training, participants will be able to: Create, preview, and run basic data transformations containing steps and hops Configure and secure the Pentaho Enterprise Repository Harness disparate sources of data and generate a single, unified version of the truth in an analytics-ready format. Provide results to third-part applications for further processing Audience Data Analyst ETL developers Format of the course Part lecture, part discussion, exercises and heavy hands-on practice
nifidev Apache NiFi for Developers 7 horas Apache NiFi (Hortonworks DataFlow) is a real-time integrated data logistics and simple event processing platform that enables the moving, tracking and automation of data between systems. It is written using flow-based programming and provides a web-based user interface to manage dataflows in real time. In this instructor-led, live training, participants will learn the fundamentals of flow-based programming as they develop a number of demo extensions, components and processors using Apache NiFi. By the end of this training, participants will be able to: Understand NiFi's architecture and dataflow concepts Develop extensions using NiFi and third-party APIs Custom develop their own Apache Nifi processor Ingest and process real-time data from disparate and uncommon file formats and data sources Audience Developers Data engineers Format of the course Part lecture, part discussion, exercises and heavy hands-on practice
68780 Apache Spark 14 horas
hadoopadm1 Hadoop para Administradores 21 horas Apache Hadoop es el marco más popular para procesar Big Data en clústeres de servidores. En este curso de tres (opcionalmente, cuatro) días, los asistentes aprenderán sobre los beneficios empresariales y los casos de uso de Hadoop y su ecosistema, cómo planificar el despliegue y crecimiento del clúster, cómo instalar, mantener, monitorear, solucionar y optimizar Hadoop. También practicarán la carga de datos a granel del clúster, se familiarizarán con varias distribuciones de Hadoop y practicarán la instalación y administración de herramientas del ecosistema de Hadoop. El curso finaliza con la discusión sobre la seguridad del clúster con Kerberos. "... Los materiales estaban muy bien preparados y cubiertos a fondo. El laboratorio fue muy servicial y bien organizado " - Andrew Nguyen, Ingeniero Principal de Integración DW, Microsoft Online Advertising Audiencia Administradores de Hadoop Formato Conferencias y laboratorios prácticos, balance aproximado 60% conferencias, 40% laboratorios.
accumulo Apache Accumulo: Construcción de Altamente Escalable Aplicaciones Big Data 21 horas Apache Accumulo es un almacén de claves / valores ordenados y distribuidos que proporciona almacenamiento y recuperación de datos robustos y escalables. Está basado en el diseño de BigTable de Google y está impulsado por Apache Hadoop, Apache Zookeeper y Apache Thrift.   Este curso cubre los principios de trabajo detrás de Accumulo y guía a los participantes a través del desarrollo de una aplicación de muestra en Apache Accumulo. Audiencia      Desarrolladores de aplicaciones      Ingenieros de software      Consultores técnicos Formato del curso      Conferencia de parte, parte de discusión, desarrollo e implementación práctica, pruebas ocasionales para medir comprensión  
hdp Hortonworks Data Platform (HDP) for administrators 21 horas Hortonworks Data Platform is an open-source Apache Hadoop support platform that provides a stable foundation for developing big data solutions on the Apache Hadoop ecosystem. This instructor-led live training introduces Hortonworks and walks participants through the deployment of Spark + Hadoop solution. By the end of this training, participants will be able to: Use Hortonworks to reliably run Hadoop at a large scale Unify Hadoop's security, governance, and operations capabilities with Spark's agile analytic workflows. Use Hortonworks to investigate, validate, certify and support each of the components in a Spark project Process different types of data, including structured, unstructured, in-motion, and at-rest. Audience Hadoop administrators Format of the course Part lecture, part discussion, exercises and heavy hands-on practice
matlabpredanalytics Matlab for Predictive Analytics 21 horas Predictive analytics is the process of using data analytics to make predictions about the future. This process uses data along with data mining, statistics, and machine learning techniques to create a predictive model for forecasting future events. In this instructor-led, live training, participants will learn how to use Matlab to build predictive models and apply them to large sample data sets to predict future events based on the data. By the end of this training, participants will be able to: Create predictive models to analyze patterns in historical and transactional data Use predictive modeling to identify risks and opportunities Build mathematical models that capture important trends Use data to from devices and business systems to reduce waste, save time, or cut costs Audience Developers Engineers Domain experts Format of the course Part lecture, part discussion, exercises and heavy hands-on practice
hadoopmapr Administración de Hadoop en MapR 28 horas Audiencia: Este curso pretende desmitificar la tecnología de datos / hadoop y demostrar que no es difícil de entender.
solrdev Solr para Desarrolladores 21 horas Este curso introduce a los estudiantes a la plataforma Solr. A través de una combinación de conferencias, discusiones y laboratorios, los estudiantes tendrán experiencia en la configuración de una búsqueda e indexación eficaces. La clase comienza con la instalación y configuración básica de Solr y enseña a los asistentes las funciones de búsqueda de Solr. Los estudiantes obtendrán experiencia con facetas, indexación y relevancia de búsqueda entre otras características centrales de la plataforma Solr. El curso se completa con una serie de temas avanzados, incluyendo corrección ortográfica, sugerencias, Multicore y SolrCloud.
druid Druid:Construir un Sistema Rápido y en Tiempo Real de Análisis de Datos 21 horas Druid es un almacén de datos distribuido orientado a columnas y de código abierto escrito en Java. Fue diseñado para ingerir rápidamente cantidades masivas de datos de eventos y ejecutar consultas OLAP de baja latencia en esos datos. Druid se usa comúnmente en aplicaciones de inteligencia empresarial para analizar grandes volúmenes de datos históricos y en tiempo real. También es adecuado para alimentar cuadros de mandos analíticos rápidos e interactivos para usuarios finales. Druid es utilizado por compañías como Alibaba, Airbnb, Cisco, eBay, Netflix, Paypal y Yahoo. En este curso, exploramos algunas de las limitaciones de las soluciones de almacenamiento de datos y discutimos cómo Druid puede complementar esas tecnologías para formar una pila de análisis de transmisión flexible y escalable. Analizamos muchos ejemplos, ofreciendo a los participantes la oportunidad de implementar y probar soluciones basadas en Druid en un entorno de laboratorio. Audiencia     Desarrolladores de aplicaciones     Ingenieros de software     Consultores técnicos     Profesionales de DevOps     Ingenieros de arquitectura Formato del curso     Conferencia parcial, discusión parcial, práctica práctica intensa, pruebas ocasionales para medir la comprensión
magellan Magellan: Geospatial Analytics with on Spark 14 horas Magellan is an open-source distributed execution engine for geospatial analytics on big data. Implemented on top of Apache Spark, it extends Spark SQL and provides a relational abstraction for geospatial analytics. This instructor-led, live training introduces the concepts and approaches for implementing geospacial analytics and walks participants through the creation of a predictive analysis application using Magellan on Spark. By the end of this training, participants will be able to: Efficiently query, parse and join geospatial datasets at scale Implement geospatial data in business intelligence and predictive analytics applications Use spatial context to extend the capabilities of mobile devices, sensors, logs, and wearables Audience Application developers Format of the course Part lecture, part discussion, exercises and heavy hands-on practice
graphcomputing Introduction to Graph Computing 28 horas A large number of real world problems can be described in terms of graphs. For example, the Web graph, the social network graph, the train network graph and the language graph. These graphs tend to be extremely large; processing them requires a specialized set of tools and mindset referred to as graph computing. In this instructor-led, live training, participants will learn about the various technology offerings and implementations for processing graph data. The aim is to identify real-world objects, their characteristics and relationships, then model these relationships and process them as data using graph computing approaches. We start with a broad overview and narrow in on specific tools as we step through a series of case studies, hands-on exercises and live deployments. By the end of this training, participants will be able to: Understand how graph data is persisted and traversed Select the best framework for a given task (from graph databases to batch processing frameworks) Implement Hadoop, Spark, GraphX and Pregel to carry out graph computing across many machines in parallel View real-world big data problems in terms of graphs, processes and traversals Audience Developers Format of the course Part lecture, part discussion, exercises and heavy hands-on practice
68736 Hadoop for Developers (2 days) 14 horas
sparkdev Spark para Desarrolladores 21 horas This course will introduce Apache Spark. The students will learn how  Spark fits  into the Big Data ecosystem, and how to use Spark for data analysis.  The course covers Spark shell for interactive data analysis, Spark internals, Spark APIs, Spark SQL, Spark streaming, and machine learning and graphX. AUDIENCIA: Desarrolladores / analistas de datos
voldemort Voldemort: configuración de un almacén de datos distribuidos de clave-valor 14 horas Voldemort es un almacén de datos distribuidos de código abierto que está diseñado como una tienda de valores clave. Se utiliza en LinkedIn por numerosos servicios críticos que alimentan una gran parte del sitio. Este curso presentará la arquitectura y las capacidades de Voldomort y guiará a los participantes a través de la configuración y la aplicación de un almacén de datos distribuidos de valor clave. Audiencia      Desarrolladores de software      Administradores del sistema      Ingenieros de DevOps Formato del curso      Conferencia parcial, discusión parcial, práctica práctica intensa, pruebas ocasionales para medir la comprensión
zeppelin Zeppelin for interactive data analytics 14 horas Apache Zeppelin is a web-based notebook for capturing, exploring, visualizing and sharing Hadoop and Spark based data. This instructor-led, live training introduces the concepts behind interactive data analytics and walks participants through the deployment and usage of Zeppelin in a single-user or multi-user environment. By the end of this training, participants will be able to: Install and configure Zeppelin Develop, organize, execute and share data in a browser-based interface Visualize results without referring to the command line or cluster details Execute and collaborate on long workflows Work with any of a number of plug-in language/data-processing-backends, such as Scala ( with Apache Spark ), Python ( with Apache Spark ), Spark SQL, JDBC, Markdown and Shell. Integrate Zeppelin with Spark, Flink and Map Reduce Secure multi-user instances of Zeppelin with Apache Shiro Audience Data engineers Data analysts Data scientists Software developers Format of the course Part lecture, part discussion, exercises and heavy hands-on practice
bigdatabicriminal Big Data Business Intelligence for Criminal Intelligence Analysis 35 horas Advances in technologies and the increasing amount of information are transforming how law enforcement is conducted. The challenges that Big Data pose are nearly as daunting as Big Data's promise. Storing data efficiently is one of these challenges; effectively analyzing it is another. In this instructor-led, live training, participants will learn the mindset with which to approach Big Data technologies, assess their impact on existing processes and policies, and implement these technologies for the purpose of identifying criminal activity and preventing crime. Case studies from law enforcement organizations around the world will be examined to gain insights on their adoption approaches, challenges and results. By the end of this training, participants will be able to: Combine Big Data technology with traditional data gathering processes to piece together a story during an investigation Implement industrial big data storage and processing solutions for data analysis Prepare a proposal for the adoption of the most adequate tools and processes for enabling a data-driven approach to criminal investigation Audience Law Enforcement specialists with a technical background Format of the course Part lecture, part discussion, exercises and heavy hands-on practice
apachemdev Apache Mahout para Desarrolladores 14 horas Audiencia Desarrolladores involucrados en proyectos que usan el aprendizaje automático con Apache Mahout. Formato Manos en la introducción al aprendizaje de la máquina. El curso se imparte en un formato de laboratorio basado en casos reales de uso práctico.
hbasedev HBase para Desarrolladores 21 horas Este curso introduce HBase - un almacén NoSQL en la parte superior de Hadoop. El curso está dirigido a desarrolladores que usarán HBase para desarrollar aplicaciones y administradores que administrarán los clústeres de HBase. Vamos a recorrer un desarrollador a través de la arquitectura de HBase y modelado de datos y desarrollo de aplicaciones en HBase. También discutirá el uso de MapReduce con HBase y algunos temas de administración relacionados con la optimización del rendimiento. El curso es muy práctico con muchos ejercicios de laboratorio.
BigData_ Una introducción práctica al análisis de datos y Big Data 35 horas Los participantes que completen esta capacitación obtendrán una comprensión práctica y real de Big Data y sus tecnologías, metodologías y herramientas relacionadas. Los participantes tendrán la oportunidad de poner este conocimiento en práctica a través de ejercicios prácticos. La interacción grupal y la retroalimentación del instructor conforman un componente importante de la clase. El curso comienza con una introducción a los conceptos elementales de Big Data, luego avanza hacia los lenguajes de programación y las metodologías utilizadas para realizar el Análisis de datos. Finalmente, discutimos las herramientas y la infraestructura que permiten el almacenamiento de Big Data, el procesamiento distribuido y la escalabilidad. Audiencia Desarrolladores / programadores Consultores de TI Formato del curso Conferencia de parte, discusión en parte, práctica práctica e implementación, quicing ocasional para medir el progreso.
samza Samza for stream processing 14 horas Apache Samza is an open-source near-realtime, asynchronous computational framework for stream processing.  It uses Apache Kafka for messaging, and Apache Hadoop YARN for fault tolerance, processor isolation, security, and resource management. This instructor-led, live training introduces the principles behind messaging systems and distributed stream processing, while walking participants through the creation of a sample Samza-based project and job execution. By the end of this training, participants will be able to: Use Samza to simplify the code needed to produce and consume messages Decouple the handling of messages from an application Use Samza to implement near-realtime asynchronous computation Use stream processing to provide a higher level of abstraction over messaging systems Audience Developers Format of the course Part lecture, part discussion, exercises and heavy hands-on practice
BDATR Big Data Analytics para reguladores de telecomunicaciones 16 horas Para cumplir con el cumplimiento de los reguladores, los CSP (proveedores de servicios de comunicación) pueden acceder a Big Análisis de datos que no solo los ayuda a cumplir con el cumplimiento, sino que están dentro del alcance de los mismos proyecto pueden aumentar la satisfacción del cliente y así reducir el abandono. De hecho desde el cumplimiento está relacionado con la calidad del servicio vinculada a un contrato, cualquier iniciativa para cumplir cumplimiento, mejorará la "ventaja competitiva" de los CSP. Por lo tanto, es importante que Los reguladores deberían ser capaces de asesorar / orientar un conjunto de prácticas analíticas de Big Data para los CSP que ser de beneficio mutuo entre los reguladores y los CSP. 2 días de curso: 8 módulos, 2 horas cada uno = 16 horas

Otras regiones

Cursos de Fin de Semana de Big Data, Capacitación por la Tarde de Big Data, Big Data boot camp, Clases de Big Data , Capacitación empresarial de Big Data, Big Data con instructor, Clases Particulares de Big Data, Big Data coaching, Clases de Big Data , Capacitador de Big Data, Cursos por la Tarde de Big Data, Talleres para empresas de Big Data, Cursos Privados de Big Data, Cursos en linea de Big Data, Cursos de Formación de Big Data, Big Data en sitio, Programas de capacitación de Big Data,Capacitación de Fin de Semana de Big Data

Descuentos en los Cursos

Respetamos la privacidad de su dirección de correo electrónico. No transmitiremos ni venderemos su dirección a otras personas.
Siempre puede cambiar sus preferencias o cancelar su suscripción por completo.

Algunos de nuestros clientes