Niemal 60 proc. specjalistów przetwarzania danych poświęca najwięcej czasu na organizację ich zbiorów. Jakie są konsekwencje dla biznesu?
Niemal 60 proc. specjalistów przetwarzania danych poświęca najwięcej czasu na organizację ich zbiorów. Jakie są konsekwencje dla biznesu?
W 2025 roku 54 proc. organizacji powiększyło zespół ds. danych, a jedynie 5 proc. zdecydowało się na jego redukcję. Pozytywny trend utrzyma się również w tym roku – niemal 6 na 10 managerów (57 proc.) planuje zatrudnienie kolejnych specjalistów z tego obszaru[1]. Badania pokazują, że firmy dążą do bycia „data-driven”. Oznacza to, że w procesie podejmowania decyzji biznesowych liczy się dla nich nie intuicja, a przede wszystkim twarde dane. Eksperci zajmujący się ich przetwarzaniem nie muszą więc póki co obawiać się o swój etat – nawet biorąc pod uwagę rozwój narzędzi analitycznych opartych na sztucznej inteligencji i ogólne trudności na rynku pracy IT. Mimo powiększania zespołów ds. danych organizacje mają problem z wykorzystaniem pełni ich potencjału. Okazuje się bowiem, że specjaliści mają zbyt mało czasu na analizę informacji. Dlaczego?
Długa droga do biznesowego wykorzystania danych
Na przestrzeni ostatniej dekady globalna ilość wykorzystywanych i przetwarzanych informacji wzrosła dziesięciokrotnie[2]. Główną przyczyną takiego tempa jest rozwój technologii cyfrowych i powszechny dostęp do Internetu. Z efektów trwającej rewolucji chętnie korzystają organizacje, które stale gromadzą własne dane, a dodatkowo sięgają po zewnętrzne zbiory. Zanim jednak zostaną one wykorzystane w analizach biznesowych, konieczne jest ich uporządkowanie i strukturyzacja, a także zapewnienie i utrzymanie odpowiedniego zaplecza technologicznego, w tym baz, systemów przetwarzania czy serwerów.
Według badań to głównie na tych działaniach skupia się uwaga zespołów ds. danych. Aż 57 proc. specjalistów przyznaje, że większość czasu ich pracy pochłania organizowanie zbiorów informacji. Kolejne 22 proc. wskazuje na zarządzanie platformami lub infrastrukturą. Tworzenie raportów i pulpitów nawigacyjnych, które są podstawą decyzji biznesowych, to główne zadanie zaledwie 13 proc. ekspertów[3]. Jak wyjaśnia Maciej Wawrzyniak, dyrektor obszaru baz danych i inżynierii danych w Linux Polska, problem ten można po części rozwiązać na etapie opracowywania architektury danych.
– Organizacje zasilają system danymi z wielu rozproszonych źródeł. Mogą nimi być przykładowo bazy zarządzane za pomocą języka SQL, pliki tekstowe zapisane w formacie CSV czy REST API służący do wymiany informacji między aplikacjami. W takiej sytuacji proces pobierania i ładowania danych do bazy powinien być w pełni zautomatyzowany i zoptymalizowany. Jeśli firma planuje analizować duże zbiory informacji zebranych w hurtowni danych, konieczne jest ich dodatkowe uporządkowanie i przekształcenie. Służy do tego na przykład open source'owe narzędzie dbt (Data Build Tool). Odpowiada ono za kluczową literę „T” (Transform) w nowoczesnych procesach ETL/ELT. Jego praca rozpoczyna się już po załadowaniu surowych danych, a polega na ich zautomatyzowanym i uporządkowanym przygotowaniu do analizy, co odbywa się z wykorzystaniem prostoty języka SQL oraz mocy obliczeniowej silnika, z którego korzystamy. Dzięki temu możliwe jest szybkie przeszukiwanie informacji, prezentacja spójnych, wartościowych wyników, a także łatwe skalowanie podczas dodawania kolejnych źródeł danych, o czym przekonaliśmy się podczas realizacji projektu dla jednej z firm ubezpieczeniowych. Wszystkie te elementy usprawniają i przyspieszają pracę zespołów – tłumaczy Maciej Wawrzyniak, dyrektor obszaru baz danych i inżynierii danych w Linux Polska.
Bariery w strategicznym podejściu do danych
Pewnym paradoksem jest, że mimo zwiększenia zatrudnienia specjalistów ds. danych, strategia związana z obszarem ich działalności była w 2025 roku stosowana w zaledwie co czwartej firmie. Co zaskakujące, w poprzednim roku odsetek ten był wyższy i wynosił 31 proc.[4]. Wśród największych barier na drodze do opracowania i wdrożenia strategii badani wymieniają przede wszystkim kulturę organizacyjną (52 proc. odpowiedzi) oraz brak wsparcia i zaangażowania ze strony organizacji (46 proc.)[5]. Jak wskazuje Tomasz Dziedzic, CTO w Linux Polska, najprawdopodobniej to właśnie te czynniki są utrudnieniem w organizacji pracy zespołów.
– Strategia powinna określać cele biznesowe organizacji oraz środki niezbędne do ich realizacji. Kluczem jest dobór rozwiązań, które umożliwią budowę bezpiecznego, niezawodnego, wydajnego i dostosowanego do potrzeb firmy ekosystemu bazodanowego. Jeśli taki faktycznie powstanie, zespoły mogą skupić się na najważniejszych projektach związanych z wartościową analizą danych, zamiast nieustannie zmagać się z awariami, niedziałającymi mechanizmami wyszukiwania czy problemami podczas skalowania baz danych i ich organizowania. W praktyce strategiczne podejście do wdrożenia baz lub hurtowni danych przekłada się na zwiększenie efektywności operacyjnej, usprawnienia zarządzania informacjami i lepszego ich wykorzystania w procesie podejmowania decyzji biznesowych. Osiągnięcie tych celów wymaga jednak zmiany kultury organizacyjnej, która według aktualnych badań stanowi główną barierę – dodaje Tomasz Dziedzic, CTO w Linux Polska.
Open source szansą dla zespołów ds. danych?
Nieco rzadziej wskazywanymi, choć nadal istotnymi przeszkodami na drodze do wdrożenia strategii danych są dla organizacji wysokie koszty wdrożeniowe (36 proc.) i luki kompetencyjne w zespole (35 proc.)[6]. Robert Halaczek, Solutions Architect w Linux Polska, uważa, że w takiej sytuacji firmy powinny skupić się na rozwiązaniach otwartoźródłowych, które są w stanie spełnić wymogi organizacji w zakresie bezpieczeństwa i wydajności.
– Do najpopularniejszych baz danych open source należą między innymi PostgreSQL, MySQL oraz MongoDB. Za każdą z nich stoi społeczność projektowa, która jest w stanie wesprzeć zespoły podczas problemów oraz wskazać im najlepsze praktyki zarządzania danymi, co jest szansą na uzupełnienie kompetencji zespołów. Otwartoźródłowe rozwiązania wiążą się z mniejszymi kosztami wdrożeniowymi, operacyjnymi i licencyjnymi, a więc pomagają także w ograniczeniu wspomnianej w badaniach bariery finansowej. Warto również wspomnieć, że mówimy o technologiach elastycznych, a to oznacza, że firma może modyfikować i rozwijać system zgodnie ze swoimi potrzebami biznesowymi. Jednocześnie rozwiązany zostaje problem uzależnienia organizacji od dostawców rozwiązań komercyjnych – przyznaje Robert Halaczek, Solutions Architect w Linux Polska.
Firmy inwestują pieniądze w poszerzanie zespołów ds. danych, jednak nadal mają problem z wdrożeniem strategii, która ułatwiłaby im pracę. Skutek? Czas, który specjaliści mogliby przeznaczyć na analitykę, upływa na organizowaniu i utrzymywaniu zbiorów informacji. Aby ograniczyć skutki takiej sytuacji, konieczna jest zmiana kultury organizacyjnej i przeprowadzenie transformacji technologicznej. Dopiero wtedy firmy będą w stanie przekuć zgromadzone dane w rzeczywiste korzyści finansowe i operacyjne.
[1] Deloitte, 2025, Chief Data Officer survey,
[2] Researchgate.net, Volume of data/information created, capture, copied and consume worldwide from 2010 to 2020 with forecasts from 2021 to 2025
[3] DBT Labs, 2025 State of Analytics Engineering,
[4] Deloitte, 2025, Chief Data Officer survey,
[5] Jak wyżej.
[6] Jak wyżej.