Akt o usługach cyfrowych (AUC) wprowadza szereg nowych obowiązków dla platform internetowych, mających na celu zwiększenie ochrony użytkowników oraz poprawę przejrzystości działania usług cyfrowych. Firmy oferujące usługi pośredniczące, w tym media społecznościowe, rynki internetowe i wyszukiwarki, muszą wdrożyć liczne mechanizmy regulacyjne, które zapewnią bezpieczeństwo i uczciwość w przestrzeni cyfrowej.
Przepisy te obejmują zarówno aspekty związane z moderacją treści, jak i ochroną prywatności użytkowników oraz transparentnością działania platform. Szczególny nacisk kładzie się na przeciwdziałanie dezinformacji, zwalczanie nielegalnych produktów i usług oraz eliminowanie mechanizmów manipulacyjnych, takich jak tzw. ciemne wzorce (ang. dark patterns), które mogą skłaniać użytkowników do nieświadomego podejmowania niekorzystnych decyzji.
Nowe obowiązki platform cyfrowych
Firmy działające w internecie muszą wdrożyć liczne środki mające na celu ochronę użytkowników. Do kluczowych zmian należą:
❌ Zwalczanie sprzedaży nielegalnych produktów i usług
Platformy internetowe, szczególnie rynki online, muszą wdrożyć skuteczne mechanizmy zapobiegające sprzedaży nielegalnych towarów i usług. Obejmuje to zarówno weryfikację sprzedawców, jak i szybkie usuwanie ofert łamiących prawo.
✋🏻 Przeciwdziałanie nielegalnym treściom
Platformy są zobowiązane do eliminowania treści naruszających prawo, w tym:
- Dezinformacji i fałszywych informacji,
- Propagandy ekstremistycznej i nawoływania do nienawiści,
- Molestowania, cyberprzemocy oraz treści seksualnie niegodziwych wobec dzieci.
Firmy muszą szybko reagować na takie treści oraz udostępnić użytkownikom mechanizmy ich zgłaszania. Jednocześnie AUC zobowiązuje platformy do ochrony wolności słowa i zapewnienia, by decyzje o usunięciu treści były przejrzyste i podlegały procedurom odwoławczym.
🛠️ Narzędzia do moderowania treści i procedury odwoławcze
Firmy są zobowiązane do wdrożenia sprawnych narzędzi moderacji, które pozwolą użytkownikom odwoływać się od decyzji o usunięciu ich treści lub ograniczeniu dostępu do nich. Platformy muszą jasno określić zasady moderacji i udostępnić użytkownikom możliwość składania skarg oraz dochodzenia swoich praw.
🖥️ Przejrzystość algorytmów i rekomendacji treści
Nowe regulacje wymagają, aby platformy ujawniały użytkownikom sposób, w jaki algorytmy rekomendują treści, a także oferowały opcję personalizacji ustawień wyświetlania treści. Użytkownicy muszą mieć możliwość podejmowania świadomych decyzji dotyczących tego, jak działają mechanizmy personalizacji na platformie.
🚨 Zakaz reklam ukierunkowanych na dzieci i wykorzystania wrażliwych danych
Nowe przepisy wprowadzają zakaz targetowania reklam na podstawie wrażliwych danych osobowych, takich jak:
- Płeć,
- Orientacja seksualna,
- Rasa,
- Religia,
- Poglądy polityczne.
Ponadto reklamy ukierunkowane na dzieci są całkowicie zakazane, co ma na celu ochronę najmłodszych użytkowników przed nieetycznymi praktykami marketingowymi.
🛑 Eliminacja zwodniczych interfejsów (ciemnych wzorców)
Akt o usługach cyfrowych zakazuje stosowania tzw. ciemnych wzorców (dark patterns), czyli interfejsów cyfrowych zaprojektowanych w sposób wprowadzający użytkowników w błąd. Są to techniki manipulacyjne, które mają na celu skłonienie użytkowników do podjęcia niekorzystnych decyzji, np.:
- Utrudnianie rezygnacji z subskrypcji,
- Ukrywanie opcji wycofania zgody na przetwarzanie danych,
- Nadmierne zbieranie informacji o użytkownikach bez ich świadomej zgody,
- Zachęcanie do zakupów poprzez fałszywe promocje czy nieistniejące rabaty.
Zgodnie z AUC platformy będą zobowiązane do zaprojektowania swoich usług w sposób uczciwy, przejrzysty i zgodny z prawem, tak aby użytkownicy mogli podejmować świadome decyzje bez manipulacji.
Definicja treści nielegalnych i zakres moderacji
Treści uznawane za nielegalne obejmują wszelkie materiały, które:
- Są zakazane na mocy prawa unijnego lub krajowego (np. nawoływanie do terroryzmu, sprzedaż podrabianych produktów, propagowanie rasizmu czy pornografia dziecięca).
- Łamią przepisy prawa cywilnego i karnego, np. naruszają prawo autorskie czy prawa konsumentów.
Platformy są zobowiązane do usuwania nielegalnych treści w momencie uzyskania o nich wiedzy, np. poprzez zgłoszenie użytkownika lub na żądanie organów państwowych. Jednak AUC nie nakłada na platformy obowiązku ogólnego monitorowania treści, co oznacza, że firmy nie muszą aktywnie skanować całego ruchu na swoich stronach.
Jeśli treści są jedynie niezgodne z regulaminem platformy, ale nie łamią prawa, ich moderacja zależy od zasad określonych przez daną firmę. Niemniej jednak dostawcy usług muszą jasno informować użytkowników, jakie treści są dopuszczalne, a jakie mogą zostać usunięte.
Nowe obowiązki sprawozdawcze
AUC nakłada na platformy obowiązek regularnego raportowania w zakresie moderacji treści. Firmy muszą publikować szczegółowe sprawozdania dotyczące:
- Działań podejmowanych wobec nielegalnych treści,
- Liczby skarg użytkowników i sposobu ich rozpatrywania,
- Zastosowania algorytmów do moderacji treści,
- Środków podjętych w celu eliminacji nadużyć,
- Liczby aktywnych użytkowników miesięcznie w UE.
Dostawcy platform internetowych oraz wyszukiwarek muszą publikować te informacje co 6 miesięcy, a pełne raporty – co najmniej raz w roku. Mikro- i małe przedsiębiorstwa są zwolnione z obowiązków sprawozdawczych, co ma na celu uniknięcie nadmiernych obciążeń administracyjnych.
Akt o usługach cyfrowych nakłada na firmy cyfrowe szereg nowych obowiązków mających na celu ochronę użytkowników oraz poprawę transparentności działania platform. Przepisy te obejmują moderację treści, eliminację nieuczciwych praktyk biznesowych, a także ochronę prywatności użytkowników. Wdrażanie tych zmian ma kluczowe znaczenie dla stworzenia bardziej bezpiecznej i uczciwej przestrzeni cyfrowej w Unii Europejskiej.
Śledź nasze kolejne publikacje, w których przybliżymy szczegółowe mechanizmy egzekwowania przepisów oraz omówimy konsekwencje dla firm niestosujących się do nowych regulacji!