Dark Patterns + AI = The exploitation of behavioral economics and upcoming legal regulations
The digital economy is increasingly shaped by subtle manipulations known as "dark patterns", designed to influence consumer choices for corporate profit.
[PL below]
These widespread practices have become deeply embedded in the digital landscape, with companies reverse-engineering "nudge" principles from Daniel Kahneman’s behavioral economics. Originally created to help people make better decisions, these principles are now being used to serve financial self-interest. This distortion of behavioral economics to drive profits in e-commerce and platform economies is now under close scrutiny by lawmakers worldwide, with Australia likely to be the next country to take action.
Dark patterns manipulate consumers directly—through upselling or nudging them toward decisions that are more profitable for the company—or indirectly, by making it difficult to cancel services. They are also used for so-called "data grabs", where personal information is collected and later monetized. Chandni Gupta, Deputy CEO of the Consumer Policy Research Centre (CPRC), an influential think tank, warns that this practice is so widespread that most young adults have likely never experienced an online world free from such manipulation. Moreover, Artificial Intelligence (AI) carries a significant risk of amplifying these practices, making dark patterns more sophisticated and harder to detect.
From persuasion to coercion: What are dark patterns?
At their core, dark patterns subtly steer consumers toward decisions that benefit companies more than users themselves. While some argue that this is simply a part of marketing—persuading people to buy things they might not need—dark patterns go beyond persuasion into the realm of deceptive practices.
Examples of dark patterns include:
Making it difficult to unsubscribe from a service
Tricking users into sharing excessive personal data
Misleading pricing techniques, such as using colors associated with discounts
Amplifying fear of missing out (FOMO) through artificial scarcity
Encouraging auto-renewing subscriptions without clear user consent
Gupta emphasizes the difference between persuasion and coercion: “What did the user want to do, versus what did they end up doing? And that gap is where dark patterns truly sit.” This includes cases where a user tries to cancel a subscription but is nudged into pausing it instead—or gives up and keeps paying.
Market examples and the StubHub case study
Several well-known companies have already faced regulatory backlash for using dark patterns, including LinkedIn, Amazon, TikTok, Meta, and Epic Games. In the U.S., the Federal Trade Commission (FTC) fined Epic Games $245 million and ordered $72 million in refunds for misleading users into in-game purchases and allowing children to rack up charges on their parents’ credit cards through “counterintuitive, inconsistent, and confusing button configurations.” Amazon and Uber are also under FTC investigation for allegedly making it hard to cancel subscriptions or tricking users into auto-renewals.
A notable example of how dark patterns can impact revenue comes from ticketing platform StubHub, which ran A/B tests on millions of customers. Half were shown the full ticket price including fees upfront, while the other half saw only the base price, with additional charges appearing later in the process.
The results were striking:
The group shown the "cheaper" base price spent on average 21% more
They were 14% more likely to complete a purchase
As a result, StubHub was sued by the District of Columbia, which alleged that residents paid over $118 million in hidden fees. A CPRC report estimated that if such patterns were used across StubHub’s full business, it could amount to $372 million in extra annual costs for consumers—or equivalent additional revenue. At scale, across global platforms and e-commerce, the annual impact of manipulated choices could reach hundreds of billions, even trillions of dollars.
The regulatory landscape: Global action and data privacy overlap
Governments and regulators around the world are mobilizing to crack down on dark patterns. Approaches vary, from treating them as deceptive practices to incorporating them into broader unfair commercial practices laws.
European Union (EU): The Digital Services Act (DSA), which came into force last year, explicitly targets dark patterns. It requires companies to assess manipulation risks in UX design and grant regulators access to their choice architectures—under threat of hefty global revenue-based fines. The European Commission has launched proceedings or requested information from companies such as Meta, Google, Microsoft, Apple, and Amazon under the DSA. Other regulations—such as the Unfair Commercial Practices Directive, the Data Act, updated GDPR rules, and the Digital Markets Act—also address aspects of dark patterns.
United States (US): The “Click to Cancel” rule ensures that canceling a subscription is no harder than signing up for one. As mentioned, the FTC has taken action against Epic Games, Amazon, and Uber.
Australia: The Australian government has committed to banning unfair business practices, explicitly naming dark patterns as a priority. There is a strong link with the ongoing Privacy Act reform, which is now entering its second phase. The Australian Competition and Consumer Commission (ACCC) fully supports the proposals and wants them to cover B2B practices as well. They also point to non-digital manipulation—such as price labels in supermarkets that mimic special offer tags—as a concern.
AI: The dark pattern amplifier
The rise of AI brings a new dimension to dark patterns, making them hyper-personalized and harder to detect or challenge. There are serious concerns about AI's ability to “target consumers at their weakest point” and personalize nudges until the user finally “clicks yes.” For example, AI-generated search summaries may blur the line between ads and trustworthy sources. The challenge is even greater in non-visual interfaces like voice assistants, where detecting manipulation becomes even more difficult.
A major risk is that if dark patterns are embedded in AI training data, they may become impossible to remove without retraining the entire model, making them much harder for regulators to trace. Unlike visible, static cues—such as countdown timers—AI-driven patterns are dynamic and concealed, requiring regulators to expand their toolkit to “look under the hood” of company practices.
Preparing for change: A call to businesses
It is better to prepare now for upcoming regulation, enforcement, and the need for redress, rather than waiting for fines. There is potential upside for companies that proactively redesign their UX to center the user’s wellbeing. While some fear losing revenue to less ethical competitors, CPRC research on subscription traps shows that “90% of Australians would gladly return to a service if cancellation were easy.” This suggests a strong business case for designing a great customer experience rather than holding users captive.
The CPRC also proposes a new organizational role: design accountability officer (DAO), emphasizing that trust should be a core organizational value. Regulators are encouraged to go further—introducing a nationwide ban on unfair business practices, dedicated dark pattern legislation, stronger enforcement powers, mandatory compensation, and deletion of deceptively obtained data. They also recommend requiring companies to share A/B testing results to prove they haven’t deliberately employed manipulative tactics.
Some regulators are already taking action—for example, the Dutch Authority for Consumers and Markets (ACM) has developed an automated dark pattern detector for misleading scarcity countdown timers and has crawled 30,000 websites to monitor compliance. This mix of proactive enforcement and mandated transparency in UX design could spark systemic change even before new laws are fully implemented.
Conclusion
The era of unchecked use of dark patterns is coming to an end. Companies that adopt a user-centered approach and prioritize consumer wellbeing are not only preparing for inevitable regulatory shifts but also building long-term trust and loyalty.
Dark Patterns + AI = Wykorzystywanie ekonomii behawioralnej i nadchodzące regulacje prawne
Gospodarka cyfrowa jest coraz silniej kształtowana przez subtelne manipulacje znane jako „ciemne wzorce” (dark patterns), które mają na celu wpływanie na wybory konsumenckie dla zysków korporacyjnych.
Te powszechne praktyki stały się głęboko zakorzenione w krajobrazie cyfrowym, a firmy odwrotnie inżynierują zasady „szturchańców” (nudges) z ekonomii behawioralnej Daniela Kahnemana. Pierwotnie stworzone po to, by pomagać ludziom podejmować lepsze decyzje by zamiast tego służyły ich własnym interesom finansowym. To wypaczenie zasad ekonomii behawioralnej w celu napędzania zysków platform i e-commerce znajduje się obecnie pod ostrą obserwacją prawodawców na całym świecie a Australia może być kolejnym krajem, który podejmie działania.
Ciemne wzorce manipulują konsumentami bezpośrednio np. poprzez dosprzedaż lub nakłanianie do bardziej opłacalnych dla firm decyzji albo pośrednio, poprzez utrudnianie rezygnacji z usług. Służą również do tzw. „przechwytywania danych”, które można następnie spieniężyć. Chandni Gupta, zastępczyni dyrektora generalnego Consumer Policy Research Centre (CPRC), wpływowego think tanku, ostrzega, że ta praktyka jest tak powszechna, iż większość młodych dorosłych nigdy nie doświadczyła internetu wolnego od takich manipulacji. Co więcej, sztuczna inteligencja (AI) niesie ogromne ryzyko „wzmocnienia” tych praktyk, czyniąc ciemne wzorce jeszcze bardziej wyrafinowanymi i trudniejszymi do wykrycia.
Od perswazji do przymusu: czym są ciemne wzorce?
W istocie, ciemne wzorce subtelnie kierują konsumentów ku decyzjom, które bardziej przynoszą korzyść firmom niż samym użytkownikom. Choć niektórzy mogą argumentować, że to po prostu element marketingu, przekonywanie ludzi do zakupu rzeczy, których niekoniecznie potrzebują - ciemne wzorce wykraczają poza perswazję, zbliżając się do oszukańczych praktyk.
Przykłady ciemnych wzorców obejmują:
Utrudnianie rezygnacji z subskrypcji;
Podstępne pozyskiwanie zbyt dużej ilości danych osobowych;
Wprowadzające w błąd techniki cenowe, np. stosowanie kolorów kojarzących się z promocjami;
Wzmacnianie lęku przed przegapieniem okazji (FOMO) poprzez techniki sztucznego ograniczania dostępności;
Zachęcanie do subskrypcji z automatycznym odnawianiem, bez wyraźnej zgody użytkownika.
Gupta podkreśla różnicę między perswazją a przymusem: „Co użytkownik chciał zrobić, a co ostatecznie zrobił? I właśnie w tej luce mieszczą się ciemne wzorce”. Dotyczy to sytuacji, w których użytkownik zamierza anulować subskrypcję, ale zostaje nakłoniony do jej „wstrzymania” lub ostatecznie rezygnuje z rezygnacji i nadal płaci.
Przykłady rynkowe i studium przypadku StubHub
Kilka znanych firm już spotkało się z reakcją regulatorów z powodu stosowania ciemnych wzorców, w tym LinkedIn, Amazon, TikTok, Meta i Epic Games. Federalna Komisja Handlu (FTC) w USA nałożyła na Epic Games grzywnę w wysokości 245 mln dolarów i nakazała zwrot 72 mln dolarów za „wprowadzanie w błąd” użytkowników przy zakupach w grach oraz umożliwienie dzieciom nieświadomego obciążania kart rodziców poprzez „nieintuicyjne, niespójne i mylące układy przycisków”. Amazon i Uber również są na celowniku FTC za utrudnianie rezygnacji z subskrypcji lub rzekome wprowadzanie użytkowników w błąd przy automatycznym odnawianiu usług.
Znaczący przykład wpływu ciemnych wzorców na zyski pochodzi z platformy sprzedaży biletów StubHub. Firma przeprowadziła testy A/B na milionach klientów: połowie pokazywano pełną cenę biletu wraz z opłatami od razu, a drugiej połowie tylko cenę podstawową, z dodatkami doliczanymi później. Wyniki były uderzające:
Grupa, która widziała „tańszą” cenę podstawową, wydawała średnio o 21% więcej;
Byli o 14% bardziej skłonni do zakupu.
W związku z tym StubHub został pozwany przez Dystrykt Kolumbii, który twierdzi, że obywatele zapłacili ponad 118 milionów dolarów w ukrytych opłatach. Raport CPRC szacuje, że jeśli takie wzorce byłyby stosowane w całym biznesie StubHub, mogłoby to oznaczać 372 miliony dolarów dodatkowych kosztów rocznie dla klientów, lub równoważny wzrost przychodów. W szerszej skali w całym e-commerce i platformach - globalny roczny wpływ manipulacji wyborami może sięgać setek miliardów, a nawet bilionów dolarów.
Krajobraz regulacyjny: działania globalne i powiązania z prywatnością
Rządy i regulatorzy na całym świecie mobilizują się, by ograniczyć stosowanie ciemnych wzorców. Ich podejścia różnią się - od klasyfikowania ich jako oszustwa po integrowanie z ogólnymi przepisami o nieuczciwych praktykach handlowych.
Unia Europejska (UE): Akt o usługach cyfrowych (DSA), który wszedł w życie w zeszłym roku, wyraźnie odnosi się do ciemnych wzorców. Nakłada na firmy obowiązek oceny ryzyka manipulacji w projektach UX i zapewnienia organom dostępu do swoich architektur wyboru – pod groźbą wysokich kar liczonych od globalnych przychodów. Komisja Europejska wszczęła postępowania lub zażądała informacji od gigantów takich jak Meta, Google, Microsoft, Apple i Amazon na podstawie DSA. Inne regulacje, jak dyrektywa o nieuczciwych praktykach handlowych, Akt o danych, zaktualizowane RODO i Akt o rynkach cyfrowych również obejmują aspekty ciemnych wzorców.
Stany Zjednoczone (USA): Wprowadzono przepisy „Click to Cancel”, które zapewniają, że rezygnacja z subskrypcji nie może być trudniejsza niż jej aktywacja. Jak wspomniano, FTC działa przeciwko Epic Games, Amazonowi i Uberowi.
Australia: Rząd Australii zobowiązał się do zakazania nieuczciwych praktyk biznesowych, wyraźnie wskazując ciemne wzorce jako cel działań. Duży nacisk kładziony jest również na powiązanie z reformą ustawy o prywatności (Privacy Act), której druga faza właśnie się rozpoczyna. Australijska Komisja ds. Konkurencji i Konsumentów (ACCC) w pełni popiera te propozycje i chce, by obejmowały także relacje B2B. Zwraca też uwagę na manipulacje poza środowiskiem cyfrowym, jak etykiety cenowe w supermarketach przypominające specjalne oferty.
Sztuczna inteligencja: wzmacniacz ciemnych wzorców
Rozwój AI otwiera nowy rozdział w historii ciemnych wzorców, czyniąc je hiperspersonalizowanymi i trudniejszymi do wykrycia lub zakwestionowania. Można mieć obawy do zdolności AI do „trafiania do konsumentów w ich najsłabszym punkcie” i personalizacji komunikacji aż do momentu, gdy użytkownik „kliknie tak”. Przykładowo, generatywne podsumowania AI w wyszukiwarkach mogą zamazywać granice między reklamą a wiarygodnym źródłem. Problem dotyczy też interfejsów niewizualnych, jak boty głosowe, gdzie wykrycie ciemnych wzorców będzie jeszcze trudniejsze.
Kluczowym zagrożeniem jest to, że jeśli ciemne wzorce zostaną wbudowane w proces treningu modeli AI, mogą być niemożliwe do usunięcia bez rozpoczęcia od nowa a tym samym dużo trudniejsze do zidentyfikowania przez regulatorów. Ta dynamiczna natura, w przeciwieństwie do statycznych i widocznych elementów jak liczniki ograniczonej dostępności, wymaga od regulatorów poszerzenia narzędzi do „zaglądania pod maskę” działań firm.
Przygotowanie do zmian: apel do firm
Lepiej przygotować się na nadchodzące regulacje, egzekwowanie prawa i konieczność rekompensat, zamiast czekać na kary. W tym podejściu jest potencjalny zysk dla firm, które z wyprzedzeniem przebudują swoje projekty UX, stawiając dobro użytkownika w centrum. Choć niektóre firmy mogą się obawiać utraty przychodów na rzecz mniej etycznej konkurencji, badania CPRC dotyczące pułapek subskrypcyjnych pokazują, że „90% Australijczyków chętnie wróciłoby do systemu lub platformy, gdyby łatwo było z niej zrezygnować”. To sugeruje, że istnieje realny biznesowy sens w tworzeniu „doskonałego doświadczenia” klienta, zamiast zatrzymywania go siłą.
CPRC proponuje również nowe stanowisko: Design Accountability Officer (DAO) podkreślając, że zaufanie powinno stać się podstawową postawą firm. Regulatorzy z kolei są zachęcani do pójścia dalej: wprowadzenia ogólnokrajowego zakazu nieuczciwych praktyk biznesowych, przepisów szczegółowo dotyczących ciemnych wzorców, zwiększenia uprawnień egzekucyjnych, obowiązku rekompensaty oraz kasowania nieuczciwie pozyskanych danych. Zaleca się również, aby firmy udostępniały wyniki testów A/B jako dowód braku intencjonalnej manipulacji.
Niektóre instytucje już działają np. holenderski Urząd ds. Konsumentów i Rynków (ACM) opracował zautomatyzowany detektor ciemnych wzorców do wykrywania wprowadzających w błąd liczników dostępności i przeskanował 30 000 stron internetowych pod kątem zgodności. To połączenie proaktywnego egzekwowania prawa i obowiązku otwarcia projektów UX do kontroli może zapoczątkować systemowe zmiany jeszcze przed pełnym wejściem nowych przepisów w życie.
Era niekontrolowanego stosowania ciemnych wzorców dobiega końca. Firmy, które postawią na podejście zorientowane na klienta i dobro użytkownika, nie tylko przygotują się na nieuchronną zmianę regulacyjną, ale też zbudują długofalowe zaufanie i lojalność.