Przetwarzanie danych – Big Data

Offer image

Terminy:

W tym momencie brak dostepnych terminów

Studia podyplomowe Przetwarzanie danych – Big Data przygotowują do podjęcia zadań związanych z przetwarzaniem dużych i złożonych zbiorów danych, wraz z ich analizą, eksploracją,  wizualizacją i zarządzaniem, a także z metodami sztucznej inteligencji i przetwarzania w chmurze. Studia pozwolą Ci rozpocząć lub rozwinąć karierę jako data scientist, data engineer, i w innych obszarach data oraz AI.  Podczas zajęć praktycznych i wykonywanych projektów uczestnicy studiów zostaną zapoznani z dostępnymi rozwiązaniami technologicznymi i najnowszymi koncepcjami przetwarzania danych oraz z metodami sztucznej inteligencji. Najlepsi specjaliści, zarówno z uczelni, jak i czołowych firm IT przekażą unikalną wiedzę teoretyczną i praktyczną, i zainspirują do dalszego rozwoju.

Usługa:
Studia podyplomowe
Poziom:
Zaawansowany

Studia kierowane są do absolwentów kierunków informatycznych i pokrewnych, a także do osób zawodowo związanych z informatyką, pragnących poszerzyć swoją wiedzę w kierunku zagadnień związanych z przetwarzaniem danych. Studia są atrakcyjną propozycją dla firm pragnących podnieść  i uaktualnić kompetencje swoich pracowników.

Semestr I:

  1. Narzędzia pracy analityka
  2. Zaawansowany SQL
  3. Analiza i wizualizacja danych w Pythonie
  4. Hurtownie danych
  5. Raportowanie danych
  6. Uczenie maszynowe
  7. Przetwarzanie rozproszone

Semestr II:

  1. Uczenie głębokie
  2. Przetwarzanie danych w chmurze
  3. Inżynieria danych w Pythonie
  4. Przetwarzanie strumieniowe i NoSQL
  5. Generatywna sztuczna inteligencja
  6. Data Governance
  7. Laboratorium inżynierii danych w chmurze

Podczas zajęć praktycznych i wykonywanych projektów uczestnicy studiów zostaną zapoznani z dostępnymi rozwiązaniami technologicznymi i najnowszymi koncepcjami przetwarzania danych oraz z metodami sztucznej inteligencji.

Jednostka organizacyjna: Wydział Matematyki i Informatyki

tel. +48 61 829 5308

fax +48 61 829 5315

e-mail: wmi@amu.edu.pl

Uczestnik otrzymuje:

Absolwent otrzymuje świadectwo ukończenia studiów podyplomowych

Wiedza:

  • Znajomość narzędzi pracy analityka danych, takich jak Linux, Bash, Git, PowerShell.
  • Zrozumienie zaawansowanych koncepcji SQL, w tym możliwości analitycznych i optymalizacji zapytań.
  • Znajomość podstaw języka Python, bibliotek pandas i numpy, oraz umiejętność pracy z narzędziami Jupyter do analizy i wizualizacji danych.
  • Zrozumienie architektury i zadań hurtowni danych oraz umiejętność konstruowania procesów ETL.
  • Znajomość dobrych praktyk raportowania danych i umiejętność przygotowywania raportów w różnych narzędziach.
  • Znajomość podstawowych pojęć związanych z teorią estymacji, testowania hipotez i analizy regresji w kontekście uczenia maszynowego.
  • Zrozumienie podstaw przetwarzania rozproszonego, w tym MapReduce, Hadoop, Spark oraz architektur chmurowych (IaaS, PaaS, SaaS, FaaS).
  • Znajomość podstaw uczenia głębokiego, konstrukcji sieci neuronowych i wykorzystania bibliotek Keras, TensorFlow oraz H2O.
  • Zrozumienie podstaw przetwarzania danych w chmurze, jeziora danych, oraz różnych formatów danych takich jak AVRO, Parquet, CSV.
  • Znajomość technologii przetwarzania strumieniowego danych, narzędzi typu NoSQL (Kafka, Flume, HBase, Cassandra) oraz ich zastosowań.

Umiejętności:

  • Umiejętność formułowania złożonych zapytań SQL oraz optymalizacji zapytań.
  • Umiejętność pracy z narzędziami do analizy danych w Pythonie (pandas, numpy, matplotlib) oraz tworzenia interaktywnych aplikacji.
  • Umiejętność modelowania i tworzenia hurtowni danych, w tym konstruowania procesów ETL.
  • Umiejętność przygotowywania raportów danych i wyboru odpowiednich narzędzi do wizualizacji danych.
  • Umiejętność przeprowadzania analizy regresji, klasyfikacji danych oraz redukcji wymiaru w kontekście uczenia maszynowego.
  • Umiejętność pracy z systemami rozproszonymi, w tym Hadoop, Spark oraz usługami chmurowymi.
  • Umiejętność konstruowania i ewaluacji modeli uczenia głębokiego oraz zastosowania ich w praktyce.
  • Umiejętność przetwarzania danych w chmurze oraz pracy z jeziorem danych i różnymi formatami danych.
  • Umiejętność przetwarzania strumieniowego danych oraz pracy z bazami NoSQL.
  • Umiejętność pracy w zespole nad projektami z wykorzystaniem zaawansowanych technologii danych.

Kompetencje społeczne:

  • Umiejętność pracy w zespołach projektowych.
  • Zdolność do krytycznej oceny i wyboru odpowiednich narzędzi oraz rozwiązań analitycznych.
  • Zdolność do ciągłego samokształcenia się i adaptacji do zmian w dziedzinie analizy danych.
  • Zdolność do efektywnej komunikacji wyników analiz danych i raportowania.
  • Zdolność do pracy samodzielnej i zarządzania własnym czasem pracy nad projektami danych.
  • Zrozumienie etycznych i społecznych implikacji związanych z wykorzystaniem uczenia maszynowego i danych osobowych.
  • Umiejętność współpracy z różnorodnymi specjalistami z dziedziny danych i technologii informacyjnych.
  • Umiejętność rozwiązywania problemów związanych z przetwarzaniem dużych zbiorów danych i analizą danych.
  • Zdolność do analizy i interpretacji wyników eksperymentów i modeli danych.
  • Zdolność do samodzielnego podejmowania decyzji i odpowiedzialności za projekty danych.