How to build an ethical AI culture? From values to practice
How to implement AI responsibly, fairly, and transparently—not only from a legal standpoint, but more importantly, to maintain the trust of customers, employees, and society?
In an interview with MIT Sloan Management Review, Thomas Davenport, professor and author of numerous works on data and digital transformation, emphasizes that AI ethics is not a one-time internal policy exercise. It’s not a checklist to tick off, but a dynamic, complex, and ongoing process. The key shift lies in moving from value declarations to action—from policies to everyday decisions and practices.
Why does AI ethics require a systemic approach?
One of the most common mistakes is treating AI ethics as a purely technical issue. Yes, algorithms can be tested, optimized, and documented, but the real challenges arise when AI begins to affect people’s lives—making decisions about hiring, granting credit, healthcare, or access to information. That’s when social, cultural, and psychological mechanisms come into play—often harder to diagnose than a bug in the code.
In this context, Davenport identifies several key ethical challenges organizations are grappling with:
Algorithmic bias, resulting from historical data and imperfect design, which can perpetuate discrimination based on gender, race, or age. Amazon’s recruitment system, which favored male candidates, is just one example.
Lack of transparency and explainability of AI decisions—especially dangerous in areas such as the judiciary, insurance, or credit scoring. Increasingly complex models like LLMs or recommender systems are virtually “black boxes” to the average user.
Undisclosed use of AI in human interaction, which can lead to a loss of trust. A notable case was the controversy around Google Duplex, which made calls without revealing the caller was an AI system.
Linguistic and visual insensitivity, leading to the generation of violent, racist, or offensive content. Early versions of generative models required human-in-the-loop training to eliminate such risks.
Overtrust in technology, exemplified by Tesla’s autopilot functions, whose real capabilities significantly lagged behind marketing claims—sometimes with tragic consequences.
Privacy violations and data misuse, like the Cambridge Analytica scandal or the case of Target predicting a customer’s pregnancy based on shopping data—without her knowledge.
Social consequences of content personalization, which can lead to polarization and trapping people in so-called “information bubbles,” fueling radicalization and disinformation.
AI’s impact on employment and the dignity of work, where automation not only eliminates jobs but also redefines the relationship between humans and technology.
How can organizations implement AI ethics in practice?
There’s no single universal method, but several strategies have proven effective in helping companies build an ethical culture around AI:
1. Embedding ethics throughout the AI lifecycle
Ethics must not be an afterthought. It should be integrated into every stage—from identifying use cases, through design, training, and testing of models, to real-time monitoring of their performance. This involves not only input data analysis, but also assessing intentions, user impact, and potential side effects.
2. Building an ethical culture and competencies within the organization
Organizations like Scotiabank have shown that mandatory education on data ethics for all employees working with AI is among the most effective tools. These aren’t just technical trainings, but also workshops covering philosophy, law, sociology, and psychology. Regular discussions are important—e.g., periodic interdisciplinary team meetings to analyze potential breaches of values and principles.
3. Creating formal structures and governance processes
Some companies—like Fidelity or Unilever—have introduced internal data ethics teams or so-called Algorithm Review Boards that conduct ethical reviews before deploying new models. Others develop ethical policies and implementation processes. Increasingly, AI ethics is becoming a board-level issue, not just a concern of tech departments.
4. Documenting and testing models
Salesforce introduced “model cards”—documentation describing each model’s operation, limitations, input data, and test results. This practice increases transparency and improves risk management. Platforms like Holistic AI enable semi-automated reviews of all AI use cases—both internal and those delivered by third-party vendors.
5. Expanding team competence with humanistic perspectives
More and more companies recognize that effective AI ethics requires not just engineers, but also people with backgrounds in philosophy, ethics, psychology, and social sciences. Such experts can identify issues that “pure” data analysis might overlook—such as cultural biases, social consequences, or linguistic nuances.
From words to action – the evolution of AI ethics
Corporate experience shows that developing ethical maturity in AI typically unfolds in stages:
Evangelization – promoting ethical values inside and outside the organization.
Policy-making – defining principles and frameworks for action.
Documentation – gathering information about how AI systems function.
Systematic reviews – evaluating model compliance with organizational principles.
Concrete actions – removing or modifying solutions that do not meet standards.
Regulatory challenges and the future of AI ethics
Although AI ethics is gaining importance, the legal landscape remains fragmented. In the U.S., there are no federal regulations—only local laws, like New York’s AI-assisted recruitment bill. Meanwhile, the European Union aims to regulate the issue through the AI Act—a much stricter approach that includes risk classification. However, even in Europe, concerns arise that overregulation may stifle innovation.
Additionally, there is significant uncertainty about the future of the technology. If predictions about the emergence of artificial general intelligence (AGI) within a few years come true, current ethical frameworks may prove completely inadequate.
In such conditions, companies—regardless of size—must ask themselves not only “Are we using AI?”, but “How are we using it?”. Smaller organizations, without the resources for dedicated platforms or teams, can start with regular meetings, case analysis, asking hard questions, and nurturing awareness. Because ultimately, ethics does not begin with technology—it begins with the decision that responsibility matters.
Jak budować etyczną kulturę AI? Od wartości do praktyki
Pytania o etyczne wykorzystanie AI przestają być domeną akademickich debat. Coraz więcej organizacji staje przed wyzwaniem: jak wdrożyć AI w sposób odpowiedzialny, uczciwy i transparentny – nie tylko z perspektywy prawa, ale przede wszystkim z uwagi na zaufanie klientów, pracowników i społeczeństwa.
W rozmowie z MIT Sloan Management Review, Thomas Davenport, profesor i autor wielu prac o danych i transformacji cyfrowej, podkreśla, że etyka AI nie jest jednorazowym ćwiczeniem z polityki wewnętrznej. To nie "checklist", którą można odhaczyć, ale dynamiczny, złożony i permanentny proces. Kluczowa zmiana polega na przejściu od deklaracji wartości do działania – od polityk do codziennych decyzji i praktyk.
Dlaczego etyka AI wymaga systemowego podejścia?
Jednym z najczęstszych błędów jest traktowanie etyki AI jako problemu technicznego. Owszem, algorytmy można testować, optymalizować i dokumentować, ale prawdziwe wyzwania pojawiają się wtedy, gdy AI zaczyna wpływać na życie ludzi – podejmując decyzje o zatrudnieniu, przyznaniu kredytu, leczeniu czy dostępie do informacji. To właśnie wtedy zaczynają działać mechanizmy społeczne, kulturowe, psychologiczne – często trudniejsze do zdiagnozowania niż błąd w kodzie.
W tym kontekście Davenport identyfikuje szereg najważniejszych wyzwań etycznych, z którymi zmagają się organizacje:
Stronniczość algorytmiczna (bias), wynikająca z danych historycznych i niedoskonałego projektowania, która może prowadzić do powielania dyskryminacji np. ze względu na płeć, rasę czy wiek. Przykład Amazonu, którego system rekrutacyjny premiował mężczyzn, jest tylko jednym z wielu.
Brak przejrzystości i wyjaśnialności decyzji podejmowanych przez AI – szczególnie niebezpieczny w obszarach takich jak sądownictwo, ubezpieczenia czy scoring kredytowy. Coraz bardziej złożone modele, takie jak LLM-y czy systemy rekomendacyjne, są praktycznie „czarnymi skrzynkami” dla przeciętnego użytkownika.
Niejawne użycie AI w interakcji z ludźmi, które może prowadzić do utraty zaufania. Przykładem była afera wokół Google Duplex, który wykonywał połączenia bez ujawniania, że rozmówcą jest system AI.
Insensytywność językowa i wizualna, prowadząca do generowania treści brutalnych, rasistowskich lub obraźliwych. Wczesne wersje modeli generatywnych wymagały wzmocnienia przez uczenie z udziałem człowieka, by wyeliminować te ryzyka.
Nadmierne zaufanie do technologii, czego przykładem mogą być funkcje autopilota Tesli, których realne możliwości znacznie odbiegały od marketingowych deklaracji – co w niektórych przypadkach doprowadziło do tragicznych skutków.
Naruszenia prywatności i nadużycia danych, takie jak przypadek Cambridge Analytica czy Target, który przewidział ciążę klientki na podstawie danych zakupowych – bez jej wiedzy.
Społeczne skutki personalizacji treści, która może prowadzić do polaryzacji i zamykania ludzi w tzw. bańkach informacyjnych, sprzyjając radykalizacji i dezinformacji.
Wpływ AI na zatrudnienie i godność pracy, gdzie automatyzacja zadań prowadzi nie tylko do utraty miejsc pracy, ale i redefinicji relacji pracownik–technologia.
Jak organizacje mogą wdrażać etykę AI w praktyce?
Nie istnieje jedna uniwersalna metoda, ale można wskazać zestaw strategii, które skutecznie pomagają firmom budować etyczną kulturę wokół AI:
Włączanie etyki w cały cykl życia AI
Etyka nie może być dopisywana po fakcie. Powinna towarzyszyć każdemu etapowi – od identyfikacji przypadków użycia, przez projektowanie, trenowanie i testowanie modeli, aż po monitorowanie ich działania w czasie rzeczywistym. To oznacza nie tylko analizę danych wejściowych, ale także ocenę intencji, wpływu na użytkownika i możliwych efektów ubocznych.
Budowanie kultury etycznej i kompetencji w organizacji
Organizacje takie jak Scotiabank pokazały, że jednym z najskuteczniejszych narzędzi jest obowiązkowa edukacja w zakresie etyki danych dla wszystkich osób pracujących z AI. To nie tylko szkolenia techniczne, ale również warsztaty z zakresu filozofii, prawa, socjologii i psychologii. Ważna jest też systematyczna dyskusja – np. cykliczne spotkania interdyscyplinarnych zespołów, które analizują potencjalne przypadki naruszenia zasad i wartości.
Tworzenie formalnych struktur i procesów zarządczych
Niektóre firmy – jak Fidelity czy Unilever – wprowadziły wewnętrzne zespoły ds. etyki danych lub tzw. Algorithm Review Boards, które przeprowadzają przeglądy etyczne przed uruchomieniem nowych modeli. Inne organizacje tworzą polityki etyczne i procesy ich wdrażania. Coraz częściej etyka AI staje się też tematem obecnym na poziomie zarządu, a nie tylko w działach technologicznych.
Dokumentowanie i testowanie modeli
Salesforce wprowadził „model cards” – dokumentację opisującą działanie każdego modelu, jego ograniczenia, dane wejściowe i wyniki testów. Praktyka ta zwiększa przejrzystość i pozwala lepiej zarządzać ryzykiem. Platformy takie jak Holistic AI umożliwiają półautomatyczne przeglądy wszystkich przypadków użycia AI w organizacji – zarówno wewnętrznych, jak i dostarczanych przez zewnętrznych dostawców.
Poszerzanie kompetencji zespołów o perspektywę humanistyczną
Coraz więcej firm zdaje sobie sprawę, że skuteczna etyka AI wymaga nie tylko inżynierów, ale również osób z doświadczeniem w filozofii, etyce, psychologii czy naukach społecznych. Tacy specjaliści potrafią dostrzec problemy, które „czysta” analiza danych może przeoczyć – np. związane z uprzedzeniami kulturowymi, konsekwencjami społecznymi czy językowymi niuansami.
Od słów do działania – ewolucja podejścia do etyki AI
Doświadczenia firm wskazują, że rozwój dojrzałości etycznej w obszarze AI przebiega zazwyczaj etapami:
Ewangelizacja – promowanie wartości etycznych wewnątrz i na zewnątrz organizacji.
Tworzenie polityk – definiowanie zasad i ram działania.
Dokumentacja – zbieranie informacji o działaniu systemów AI.
Systematyczne przeglądy – ocena zgodności modeli z zasadami organizacji.
Realne działania – eliminowanie lub modyfikacja rozwiązań, które nie spełniają wymagań.
Wyzwania regulacyjne i przyszłość etyki AI
Choć temat etyki AI zyskuje na znaczeniu, otoczenie prawne wciąż jest niespójne. W USA brakuje federalnych regulacji – zamiast tego pojawiają się lokalne przepisy, jak nowojorska ustawa dotycząca rekrutacji wspieranej przez AI. Z kolei Unia Europejska dąży do uregulowania tematu w ramach AI Act – znacznie bardziej rygorystycznego podejścia, uwzględniającego m.in. klasyfikację ryzyka. Jednak nawet tam pojawiają się głosy, że nadmierna regulacja może ograniczyć innowacyjność.
Dodatkowo istnieje ogromna niepewność co do przyszłości technologii. Jeśli prognozy o pojawieniu się sztucznej inteligencji ogólnej (AGI) w perspektywie kilku lat się potwierdzą, obecne ramy etyczne mogą okazać się zupełnie niewystarczające.
W takich warunkach firmy – niezależnie od wielkości – muszą zadawać sobie pytanie nie tylko „czy stosujemy AI?”, ale „jak to robimy?”. Mniejsze organizacje, które nie mają zasobów na stworzenie dedykowanych platform czy zespołów, mogą zacząć od regularnych spotkań, analizowania przypadków, zadawania niewygodnych pytań i pielęgnowania świadomości. Bo ostatecznie etyka nie zaczyna się od technologii – zaczyna się od decyzji, że warto być odpowiedzialnym.