Server Apache Hadoop configurati per Analisi Big Data
L’implementazione di un cluster di big data è in genere un processo lungo e restrittivo, ma con alcune piattaforme di analisi dei dati ben strutturate è possibile semplificare le cose. In poco tempo, posso fornire uno stack Apache Hadoop preconfigurato e pronto per l’uso.
Basato su una distribuzione standard Apache Hadoop open source, preconfiguro tutti i servizi necessari per elaborare i dati e proteggere il flusso del traffico dati.
Questa piattaforma è ideale per una gamma di applicazioni sofisticate, tra cui analisi di mercato, business intelligence, IoT e persino manutenzione preventiva.

Servizi Inclusi
Dopo aver distribuito il cluster, avrai pieno accesso a tutti i servizi elencati di seguito:
Data flow | Sqoop, Flume |
---|---|
Security | Ranger, Kerberos, Know, FreelPAidM |
Storage | HDFS, HBase |
Monitoring | Ambari, Logs Search, Ambari Infra |
Scheduling | Oozie |
Messaging | Kafka |
Processing | YARN, Map Reduce 2, Tea, Pig, Slider, Hive, Spark 2, Presto |
Baso la soluzione sul sistema operativo Apache Hadoop open source, insieme a un ulteriore livello di sicurezza e gestione che include:
- Un percorso di rete e un host gateway, per proteggere il tuo traffico con la rete pubblica
- Un servizio di gestione delle identità (Kerberos e LDAP), WebSSH e Apache Ambari, per proteggere le operazioni
- Software Ambari, per semplificare la gestione tramite interfaccia web
