Big Data con Hadoop.pdf

Big Data con Hadoop

Garry Turkington,Gabriele Modena

Hadoop è un progetto software open source che permette di analizzare enormi quantità di dati distribuiti su cluster di computer e file system differenti. È progettato per essere completamente scalabile da un singolo server fino a migliaia di macchine. Hadoop si occupa anche di gestire problemi e guasti a livello applicativo piuttosto che hardware e questo garantisce migliori e più accurate prestazioni. Hadoop è mantenuto da The Apache Software Foundation e si basa sul linguaggio di programmazione Java. Questo libro è dedicato a chi non conosce Hadoop ma ha la necessità di lavorare e gestire Big Data. Lapproccio è sia teorico che pragmatico e tutoriale. Si parte dallinstallazione e dalla configurazione di Hadoop, per passare alla progettazione, limplementazione e la gestione di sistemi complessi attraverso le varie componenti del software tra cui HDFS, YARN e MapReduce. Passo dopo passo il lettore scoprirà i componenti di Hadoop imparando a utilizzarli nella costruzione di soluzioni in grado di ottenere il massimo dai dati collezionati.

esplorazione dei dati con set completi. R, SAS, Matlab o Python, in genere richiedono una …

9.75 MB Dimensione del file
9788850333431 ISBN
Big Data con Hadoop.pdf

Tecnologia

PC e Mac

Leggi l'eBook subito dopo averlo scaricato tramite "Leggi ora" nel tuo browser o con il software di lettura gratuito Adobe Digital Editions.

iOS & Android

Per tablet e smartphone: la nostra app gratuita tolino reader

eBook Reader

Scarica l'eBook direttamente sul lettore nello store www.donne4puntozero.it o trasferiscilo con il software gratuito Sony READER PER PC / Mac o Adobe Digital Editions.

Reader

Dopo la sincronizzazione automatica, apri l'eBook sul lettore o trasferiscilo manualmente sul tuo dispositivo tolino utilizzando il software gratuito Adobe Digital Editions.

Note correnti

avatar
Sofi Voighua

Scopri Big Data con Hadoop di Turkington, Garry, Modena, Gabriele, Castellazzi, C.: spedizione gratuita per i clienti Prime e per ordini a partire da 29€ spediti ...

avatar
Mattio Mazio

I principali strumenti per lo sviluppo applicazioni con i Big Data sono Hadoop e Spark, framework opensource. Obiettivi del Corso: formare lo studente con conoscenze basi e tecniche per lo sviluppo di progetti di importazione dati (Big Data) nel cluster Apache Hadoop e come processarli nell’ecosistema con gli appositi strumenti (Spark, Impala, Hide, Flume e Sqoop) Amazon EMR è un servizio gestito che consente di eseguire Apache Hadoop e Spark in modo rapido, facile e conveniente per elaborare grandi quantità di dati. Amazon EMR supporta inoltre molti strumenti noti e affidabili per Hadoop, tra cui Presto, Hive, Pig, HBase e altri.

avatar
Noels Schulzzi

Difficult concepts of Big Data-Hadoop is given in an easy and practical way, so that students can able to understand it in an efficient manner. Table of Contents. 1. Big Data- Introduction and Demand 2. No SQL Data Management 3. Basics of Hadoop 4. Hadoop Installation (Step-by-Step) 5. MapReduce Applications 6. Hadoop Related Tools-I (Hbase Introduction to Big Data and Hadoop. Data is growing exponentially every day and with such growing data comes the need to utilize those data. Like in older days we used to have floppy drives to store data and data transfer was also slow but nowadays these are insufficient and cloud storage is used as we have terabytes of data.

avatar
Jason Statham

Big Data con Hadoop en SQL Server SSIS 2016. #. #SQLSatMadrid. Hadoop. Procesado distribuido. Grandes conjuntos de datos. Clústeres de ordenadores.

avatar
Jessica Kolhmann

Già nel dicembre 2011, gli utenti Linux con applicazioni data-intensive avevano gioito in quanto Apache Hadoop aveva raggiunto un traguardo la versione 1.0.0. Diventando un punto di riferimento per il software di calcolo distribuito, questo meraviglioso piccolo programma ha raggiunto ora la versione 1.0.3, ma cosa è