650 Euro/ persoană + TVA

2 zile

Intermediar

PySpark Programming

Big Data

Cursul oferă o introducere cuprinzătoare în utilizarea Python și Apache Spark pentru procesarea și analiza eficientă a datelor de mari dimensiuni. Acesta acoperă aspecte esențiale precum arhitectura Spark, ciclul de viață, API-ul, RDD, DataFrames, Datasets și executarea aplicațiilor. Participanții vor înțelege anatomia și execuția unei aplicații Spark, sistemul de stocare distribuit, relația dintre Spark și Hadoop, rolul lor în analiza de date în timp real, gestionarea clusterelor și operațiile paralele. Cursul dezvoltă competențe practice în utilizarea PySpark pentru soluții de analiză de date scalabile.

Preț: 650 Euro/ persoană + TVA

Durată – 2 zile

Format: Online – Live cu instructor sau la sediul clientului

Prerechizite: Nu există cerințe prealabile de certificare pentru acest curs. Experienta anterioara in lucru cu baze de date si/sau structuri de date, cat si cunoasterea limbajului de programare Python este un avantaj.

Certificare: Certificat de absolvire

Audienta :

Cursul se adresează studenților și absolvenților în informatică, inginerie software, matematică sau domenii conexe, profesioniștilor IT, analiștilor de date, inginerilor software și administratorilor de baze de date interesați să învețe programarea PySpark și să aprofundeze conceptele legate de Apache Spark și Hadoop. Acest curs este potrivit și pentru manageri, decidenți și consultanți care doresc să înțeleagă rolul Spark și Hadoop în analiza de date analitice în timp real și să optimizeze performanța sistemelor lor. Cursul se adresează, de asemenea, cercetătorilor și academicienilor interesați să utilizeze PySpark în proiectele de cercetare, precum și antreprenorilor și start-up-urilor care doresc să integreze tehnologiile Spark și Hadoop în soluțiile lor.

Plan De Curs

Notiuni introductive Spark

Arhitectura Apache Spark

Ciclul de viata al Apache Spark

Spark API

Resilient Distributed Datasets (RDDs)

DataFrames

Datasets

Rularea aplicațiilor Spark

Anatomia unei aplicații Spark

Executia unei aplicații Spark

Sistem de stocare distribuit

Cum procesează Spark și Hadoop datele

Rolul Spark si Hadoop in analiza de date analitice in timp real

Clusterul Spark

Partitionarea fisierelor: fisiere individuale/multiple

HDFS și localitatea datelor

Operatii paralele pe partitii si in etape

Ia legătura cu un consultant!

Please enable JavaScript in your browser to complete this form.
Vreau să primesc informații prin email referitoare la noutăți, invitații la webinarii, traininguri și alte evenimente.
Vreau să primesc informații prin email referitoare la noutăți, invitații la webinarii, traininguri și alte evenimente.
Solicită o ofertă personalizată pentru compania!
0721.219.419