The invisible hand - How digital persuasion shapes our online world
Each of us – whether we’re aware of it or not – constantly becomes the target of subtle persuasion tricks, known as “digital nudges”.
[PL below]
Sometimes they can help us with everyday choices, but many of them are designed to cleverly exploit our cognitive weaknesses. This is how “dark patterns” come about. Let’s take a closer look at how these mechanisms work, how technological progress strengthens them even further, and what this all means for our mental health.
How do our brains work in the online world?
There’s no denying it – most decisions we make in daily life rely on emotions and simple mental shortcuts. We’re simply “cognitive misers.” We prefer not to overload our brains, because we have limited “awareness on board.” Interestingly, even though in the information age we have access to everything, we’re not becoming more critical. Quite the opposite! We’re increasingly outsourcing hard thinking to our phones and computers – the “brain in the pocket.” This means we’re less prepared to defend ourselves against online manipulation, which unfortunately can harm our mental health.
What are digital nudges and when do they turn into dark patterns?
Nudges on the internet can be divided into seven main types:
1️⃣ providing information,
2️⃣ framing,
3️⃣ highlighting and reminders,
4️⃣ default options and commitments,
5️⃣ adding or removing “friction” (obstacles),
6️⃣ reinforcing behaviors,
7️⃣ emotional engagement.
Nudges themselves aren’t bad. But when they lack transparency, user choice, and real benefit – they turn into “dark patterns.” A dark pattern is a nudge that’s misleading, hard to avoid, or doesn’t improve our well-being at all.
Researchers have identified six main strategies of dark patterns, gathered in the acronym FORCES:
✅ Frame: Information is presented in a way that biases your choice.
➡️ Examples? Fake claims of “low stock,” fabricated reviews and “high demand” labels, special decoys, artificial hierarchies, and the famous “confirmshaming” (“No thanks, I don’t want to be a better marketer”).
✅ Obstruct: Everything is done to make things harder for you.
➡️ Examples? The “roach motel” (easy to join, hard to leave), blocking account deletion, hiding real prices, adding extra steps, jargon meant to confuse you.
✅ Ruse: You’re tricked into choosing something you didn’t want.
➡️ Examples? Products landing in your cart without your knowledge, hidden fees revealed at the end (“drip pricing”), delayed ads that cause accidental clicks, disguised ads, tricky questions, distraction tactics.
✅ Compel: You’re forced into actions you don’t want to take.
➡️ Examples? Automatic payments after free trials, forced playing in games, forced registration, constant nagging for premium versions, “Privacy Zuckering” (sneaking in data-sharing consents), default settings, and “playing by appointment” (delayed engagement).
✅ Entangle: You’re kept engaged longer than you intended.
➡️ Examples? Fake notifications, pausing them instead of turning them off, endless scrolling (infinite scroll), “casino-style” refresh, deliberately hiding the clock.
✅ Seduce: It targets your emotions rather than your reason.
➡️ Examples? Emotional language and imagery, sales pressure, “bamboozlement” (flooding you with information so you can’t make sense of it), “guilty pleasures” (personalized suggestions that exploit your weaknesses).
Worse still, research shows that these dark patterns actually increase impulsive buying. But thankfully, nudges can also be used for good – like promoting healthier choices or helping users take breaks from social media. There are already apps that detect when you’ve been scrolling for too long and remind you to take a break.
Technologies that amplify the power of persuasion
The power of these tricks grows along with technological progress.
🔹 Personalization of messages
By analyzing your digital footprints (everything you do online), artificial intelligence can predict your personality, even your mood or preferences. This is called “digital phenotyping.” Data from your smartphone and social media can surprisingly accurately guess what type of personality you have (like from the Big Five traits).
For example, one Australian bank analyzed customer voice and text data to better match ads – and indeed increased the number of people who responded to them.
🔹 Generative artificial intelligence
This is a powerful tool for mass-creating personalized messages. Studies show that messages created by AI are more effective than “universal” ones, and can even be as convincing as those written by humans.
But there’s also a dark side:
AI can create deepfakes – fake photos or videos that look real and can even “generate” false memories. Unfortunately, people are bad at detecting these deepfakes – only a bit better than random guessing.
🔹 Virtual and augmented reality (VR/AR)
The more immersive the environment (like in the metaverse), the easier it is to influence your emotions and views. Meta-analyses confirm that VR has a much bigger impact on social attitudes than traditional methods.
How ideas spread online – virality and manipulation
The psychology of emotions is key to making something go viral online.
Emotions and negativity
The stronger the emotions a piece of content triggers (especially negative ones – anger, fear, outrage), the more likely it is to go viral. People click and share what triggers strong reactions. That’s why fake news and clickbait are so popular – and “bad actors” skillfully exploit this.
But there’s also a flip side: positive emotions can also work, because we like to be the ones to share good news.
Other tricks of virality: Beyond emotions, these factors also matter:
– the “curiosity gap” (headlines that don’t reveal everything),
– interactive elements (links, tags),
– simple, sensory language,
– authoritative style.
Hidden manipulation tactics:
– Seeding and echoing: First, disinformation is introduced (“seeding”), then it’s reinforced in the group (“echoing”).
– Astroturfing: Bots and fake accounts pretend to be real people, creating an illusion of social support and “manufacturing” consensus.
– Inoculation: A weakened version of an argument is introduced so it’s harder to believe when it pops up later.
– Meta-nudging: Instead of direct ads, trusted influencers are used – even virtual ones! We build “parasocial relationships” with them, so we’re more likely to follow their recommendations.
Impact on mental health and what’s next?
All these manipulations can pull us deeper into social media and other technologies, which inevitably affects our mental health. It can lead to addiction, impulsive shopping, and a sense of helplessness or paranoia.
On one hand, the risk of manipulation is growing. The development of predictive algorithms, generative AI, and VR/AR creates fertile ground for this. On the other hand, these same technologies hold potential: well-designed behavioral interventions can support mental health – like encouraging breaks from the screen or promoting mindful use of technology. But so far, the effects of such interventions have been mixed.
In summary: The internet is a real arena of persuasion, where emotional content, dark patterns, and hidden manipulations (like astroturfing and meta-nudging) are part of everyday life. The more we know about this, the easier it will be to protect ourselves – because technology never stops developing ever more sophisticated ways to influence us online.
Niewidzialna ręka, czyli jak cyfrowa perswazja kształtuje nasz świat online
Każdy z nas -świadomie czy nie - co chwilę staje się celem subtelnych sztuczek perswazyjnych, czyli tzw. „cyfrowych szturchańców” (digital nudges). Czasem mogą one pomagać w codziennych wyborach, ale wiele z nich jest projektowanych tak, by sprytnie wykorzystywać nasze słabości poznawcze. W ten sposób powstają „ciemne wzorce” (dark patterns).
Przyjrzyjmy się bliżej, jak działają te mechanizmy, jak rozwój technologii jeszcze bardziej je wzmacnia i co to wszystko oznacza dla naszego zdrowia psychicznego.Jak działają nasze mózgi w świecie online?
Nie da się ukryć - większość decyzji, które podejmujemy w codziennym życiu, opiera się na emocjach i prostych skrótach myślowych. Jesteśmy po prostu „poznawczymi skąpcami”. Wolimy nie przeciążać mózgu, bo mamy ograniczoną „świadomość na pokładzie”. Co ciekawe, mimo że w erze informacji mamy dostęp do wszystkiego, wcale nie stajemy się bardziej krytyczni. Wręcz przeciwnie! Coraz chętniej zlecamy trudne myślenie naszym telefonom czy komputerom „mózgowi w kieszeni”. To sprawia, że jesteśmy mniej gotowi, by bronić się przed manipulacjami online, co niestety może szkodzić naszej psychice.
Czym są cyfrowe szturchańce i kiedy zamieniają się w ciemne wzorce?
Szturchańce w sieci można podzielić na siedem głównych typów:
1️⃣ dostarczanie informacji,
2️⃣ odpowiednie kadrowanie,
3️⃣ uwypuklanie i przypomnienia,
4️⃣ domyślne opcje i zobowiązania,
5️⃣ dodawanie lub usuwanie „tarcia” (utrudnień),
6️⃣ wzmacnianie zachowań,
7️⃣ zaangażowanie emocjonalne.
Szturchańce same w sobie nie są złe. Ale kiedy brakuje im przejrzystości, wyboru dla użytkownika i realnej korzyści – zamieniają się w „ciemne wzorce”. Ciemny wzorzec to szturchaniec, który jest mylący, trudny do uniknięcia albo nie poprawia wcale naszego dobrostanu.
Badacze wyróżnili sześć głównych strategii ciemnych wzorców, zebranych w akronimie FORCES:
✅ Frame (Kadrowanie): Informacje są przedstawiane tak, żeby wpływać na Twój wybór.
➡️ Przykłady? Fałszywe hasła o „niskim stanie magazynowym”, zmyślone recenzje i etykiety „wysoki popyt”, specjalne „wabiki”, sztuczne hierarchie i słynne „confirmshaming” („Nie, dzięki, nie chcę być lepszym marketerem”).
✅ Obstruct (Utrudnianie): Robi się wszystko, żebyś miał trudniej.
➡️ Przykłady? „Roach motel” (łatwo się zapisać, ale trudno wypisać), blokowanie usunięcia konta, ukrywanie prawdziwych cen, dodatkowe kroki, żargon, który ma Cię zmylić.
✅ Ruse (Podstęp): Wprowadza się Cię w błąd, byś wybrał coś, czego nie chciałeś.
➡️ Przykłady? Produkty lądują w koszyku bez Twojej wiedzy, ukryte opłaty ujawniane na końcu („drip pricing”), opóźnione reklamy, które przypadkowo klikniesz, zamaskowane reklamy, zawiłe pytania, techniki odwracania uwagi.
✅ Compel (Zmuszanie): Wymusza się na Tobie działania, których nie chcesz.
➡️ Przykłady? Automatyczne płatności po darmowych okresach próbnych, granie „na przymus” w grach, wymuszona rejestracja, ciągłe prośby o wersję premium, „Privacy Zuckering” (przemycanie zgody na udostępnienie danych), domyślne ustawienia i „granie na czas” (umawianie na później).
✅ Entangle (Uwięzienie): Sprawia, że zostajesz dłużej, niż zamierzałeś.
➡️ Przykłady? Fałszywe powiadomienia, wstrzymywanie ich zamiast wyłączania, nieskończone przewijanie (infinite scroll), „kasynowe” odświeżanie, celowe ukrywanie zegara.
✅ Seduce (Uwodzenie): Działa się na emocje, a nie na rozsądek.
➡️ Przykłady? Emocjonalny język i obrazy, presja sprzedażowa, „bamboozlement” (zalewanie informacjami, żebyś nie miał szansy ogarnąć), „guilty pleasures” (spersonalizowane sugestie, które wykorzystują Twoje słabości).
Co gorsza, badania pokazują, że te ciemne wzorce rzeczywiście zwiększają impulsywność zakupów. Ale na szczęście szturchańce mogą też być wykorzystane dla dobra np. do promowania zdrowszych wyborów albo pomagania użytkownikom w przerwie od mediów społecznościowych. Są już aplikacje, które wykrywają, kiedy za długo scrollujesz, i przypominają Ci o przerwie.
Technologie, które wzmacniają moc perswazji
Siła tych wszystkich sztuczek rośnie razem z postępem technologicznym.
🔹 Personalizacja przekazów Dzięki analizie Twoich cyfrowych śladów (czyli tego, co robisz online), sztuczna inteligencja potrafi przewidzieć Twoją osobowość, a nawet nastrój czy preferencje. To nazywa się „cyfrowe fenotypowanie”. Z danych z Twojego smartfona i mediów społecznościowych można zaskakująco celnie odgadnąć, jakim jesteś typem osobowości (np. z Wielkiej Piątki).
Przykład? Jeden z australijskich banków analizował dane z głosu i tekstu klientów, by lepiej dopasować reklamy – i rzeczywiście zwiększył liczbę osób, które na nie reagowały.
🔹 Generatywna sztuczna inteligencja To potężne narzędzie do masowego tworzenia spersonalizowanych komunikatów. Badania pokazują, że przekazy tworzone przez AI są skuteczniejsze niż te „uniwersalne”, a nawet potrafią być tak samo przekonujące jak te pisane przez człowieka.
Ale jest też ciemna strona AI może tworzyć deepfake’i fałszywe zdjęcia czy filmy, które wyglądają jak prawdziwe i potrafią nawet „wytwarzać” fałszywe wspomnienia. Ludzie niestety są kiepscy w wykrywaniu tych deepfake’ów. Lepsi tylko trochę od losowego zgadywania.
🔹 Wirtualna i rozszerzona rzeczywistość (VR/AR) Im bardziej wciągające środowisko (np. w metawersum), tym łatwiej wpływać na Twoje emocje i poglądy. Meta-analizy potwierdzają, że VR ma dużo większy wpływ na społeczne postawy niż tradycyjne sposoby.
Jak pomysły rozprzestrzeniają się online - wirusowość i manipulacja
Psychologia emocji to klucz do tego, by coś stało się wirusowe w sieci.
Emocje i negatywność Im silniejsze emocje wzbudza treść (zwłaszcza negatywne - gniew, strach, oburzenie), tym bardziej prawdopodobne, że stanie się wiralem. Ludzie klikają i udostępniają to, co wywołuje w nich mocne reakcje. To dlatego fake newsy i clickbaity są tak popularne - a „zli aktorzy” umiejętnie to wykorzystują.
Ale jest też druga strona: pozytywne emocje też mogą działać, bo lubimy być tymi, którzy dzielą się dobrą nowiną.
Inne triki wirusowości: Oprócz emocji liczy się:
– „luka ciekawości” (nagłówek, który nie zdradza wszystkiego),
– elementy interaktywne (linki, oznaczenia),
– prosty, sensoryczny język,
– autorytatywny styl wypowiedzi.
Ukryte techniki manipulacji:
– Seeding i echoing: Najpierw wprowadza się dezinformację („seeding”), a potem ją umacnia w grupie („echoing”).
– Astroturfing: Boty i sztuczne konta udają prawdziwych ludzi, tworząc iluzję społecznego poparcia i „produkując” konsensus.
– Inokulacja: Wprowadza się osłabioną wersję argumentu, by później trudniej było uwierzyć w niego, gdy znów się pojawi.
– Meta-szturchańce: Zamiast samych reklam, korzysta się z influencerów, którym ufamy – nawet tych wirtualnych! Budujemy z nimi „relacje paraspołeczne”, więc chętniej przyjmujemy ich rekomendacje.
Wpływ na zdrowie psychiczne i co dalej?
Wszystkie te manipulacje mogą wciągać nas coraz bardziej w media społecznościowe i inne technologie, co nie pozostaje bez wpływu na nasze zdrowie psychiczne. Może prowadzić do uzależnienia, impulsywnych zakupów, a także poczucia bezradności czy paranoi.
Z jednej strony ryzyko manipulacji rośnie. Rozwój algorytmów predykcyjnych, generatywnej AI i VR/AR to idealna pożywka. Z drugiej strony, w tych samych technologiach tkwi szansa: dobrze zaprojektowane interwencje behawioralne mogą wspierać zdrowie psychiczne – np. zachęcać do przerw od ekranu czy promować świadome korzystanie z technologii. Jednak dotychczasowe efekty takich działań są mieszane.
Podsumowując: internet to prawdziwa arena perswazji, gdzie emocjonalne treści, „ciemne wzorce” i ukryte manipulacje (jak astroturfing czy meta-szturchańce) są na porządku dziennym. Im więcej o tym wiemy, tym łatwiej będzie nam się obronić – bo technologia nie przestaje rozwijać coraz bardziej wyrafinowanych sposobów wpływania na nas w sieci.