Warning: Attempt to read property "slug" on null in /home/mitsmr/domains/mitsmr.dev.webvist.pl/public_html/wp-content/themes/mitsmr/template-parts/part-single-article.php on line 42

Warning: Attempt to read property "slug" on null in /home/mitsmr/domains/mitsmr.dev.webvist.pl/public_html/wp-content/themes/mitsmr/template-parts/part-single-article.php on line 92
Bez kategorii

Etyka a AI w praktyce Unilevera: od polityki do wdrożenia

13 marca 2024 13 min czytania

Obecnie wiele dużych firm – globalnie ok. 70% – doszło do przekonania, że sztuczna inteligencja jest ważna, więc szuka zastosowań dla technologii w różnych obszarach swojej działalności. W większości przedsiębiorstwa te mają również świadomość, że zastosowanie AI ma wymiar etyczny i że muszą dopilnować, aby systemy, które tworzą lub wdrażają, były przejrzyste, bezstronne i sprawiedliwe.

Wiele przedsiębiorstw, które zajmują się etyczną stroną sztucznej inteligencji (AI), jest wciąż na początkowym etapie rozstrzygania tej kwestii. Niektóre nakłoniły swoich pracowników, aby w pracy nad użyciem i wykorzystaniem AI kierowali się zasadami etycznymi. Inne opracowały wstępny zbiór procedur służących nadzorowi nad AI. Większość firm nie zrobiła jednak nawet tego. Jak wynika z jednej z ostatnich ankiet, 73% amerykańskich menedżerów wyższego szczebla oświadczyło, że ich zdaniem wytyczne w sferze sztucznej inteligencji są ważne, ale tylko 6% z nich zadbało o ich nakreślenie.

Właściwy proces tworzenia etycznych podstaw funkcjonowania AI w przedsiębiorstwie powinien, według nas, obejmować pięć etapów:

  1. Etap kaznodziejstwa – przedstawiciele firmy propagują znaczenie etyki w sferze AI;

  2. Etap tworzenia procedur – firma obmyśla i zatwierdza wewnętrzne procedury etycznego podejścia do AI;

  3. Etap ewidencjonowania – firma zbiera dane na temat każdego przypadku użycia lub zastosowania AI (przy zastosowaniu takich metod jak karty modeli);

  4. Etap oceny – firma przeprowadza usystematyzowaną analizę każdego przypadku użycia (lub zleca ją zewnętrznemu partnerowi), aby ustalić, czy dany przypadek spełnia kryteria dotyczące etyki w sferze AI;

  5. Etap działania – firma albo akceptuje przypadek użycia w istniejącej wersji, albo odsyła przypadek do korekty przez zgłaszającego go „właściciela”, albo przypadek trafia do lamusa.

Dopiero na wyższych etapach – oceny i działania – firma jest w stanie faktycznie stwierdzić, czy zastosowania AI spełniają ustanowione przez nią kryteria w sferze przejrzystości, bezstronności i sprawiedliwości. Aby przystąpić do pracy nad tymi etapami, firma musi dysponować sporą liczbą projektów AI, procesów i systemów gromadzenia informacji wraz ze strukturami nadzoru służącymi podejmowaniu decyzji dotyczących konkretnych zastosowań. Wiele przedsiębiorstw nie spełnia jeszcze tych wstępnych warunków, ale w miarę osiągania przez te firmy większej dojrzałości w sferze AI i kładzenia na nią większego nacisku spełnienie tych warunków okaże się konieczne.

Wczesne procedury w Unileverze

Brytyjski producent paczkowanych dóbr konsumpcyjnych, firma Unilever, która ma w portfelu takie marki jak Dove, Seventh Generation i Ben & Jerry’s, od dawna stawia na społeczną odpowiedzialność i zrównoważony wpływ na środowisko naturalne. Niedawno firma wdrożyła narzędzie AI, które pozwala na radykalne usprawnienie operacji i procesów decyzyjnych w całej globalnej strukturze organizacyjnej. Jej komitet nadzoru, o nazwie Enterprise Data Executive, uznał, że firma może, bazując na swoich prężnych mechanizmach kontroli w zakresie prywatności, bezpieczeństwa i nadzoru, wbudować odpowiedzialne i etyczne sposoby użycia AI w swoje strategie w zakresie danych. Celem firmy było wykorzystanie napędzanych przez AI innowacji cyfrowych do maksymalizacji własnych zdolności, jak i wspierania społeczeństwa opartego na większej sprawiedliwości i równości. Unilever powołał zespół, którego zadaniem jest zbadanie, co ten cel oznaczał w praktyce, i opracowanie programu działań służących operacjonalizacji tego celu.

Algorytmy służące uczeniu maszynowemu są automatycznie analizowane, aby ustalić, czy nie dyskryminują jakiejkolwiek konkretnej grupy.

Firma zrealizowała już pięć opisanych powyżej etapów, ale patrząc wstecz, należy stwierdzić, że jej pierwszym krokiem było utworzenie zbioru różnych form polityki. Jedna z nich wskazywała na przykład, że jakakolwiek decyzja mająca znaczący wpływ na życie osoby fizycznej nie powinna być całkowicie zautomatyzowana i powinna być podjęta przez człowieka. Do innych przyjętych przez firmę zasad dotyczących AI należą zarządzenia: „Nigdy nie będziemy obwiniać systemu; za każdą decyzją musi stać pracownik naszej firmy” i „Zrobimy, co w naszej mocy, w celu systematycznego monitorowania modeli i wyników osiąganych przez AI, aby zapewnić, że utrzymuje ona swoją skuteczność”.

Członkowie komitetu szybko zdali sobie sprawę z tego, że opracowanie wyłącznie szerokiej polityki nie wystarczy do zapewnienia odpowiedzialnego rozwoju zastosowań AI. Realizacja procesu przyjęcia AI z pełnym przekonaniem i rzeczywiste uwolnienie jej pełnego potencjału wymagały prężnego ekosystemu narzędzi, usług i zasobów ludzkich, gwarantującego, że systemy AI będą funkcjonowały zgodnie z oczekiwaniami.

Członkowie komitetu wiedzieli również, że wiele systemów AI i systemów analitycznych funkcjonujących w firmie Unilever powstawało we współpracy z zewnętrznymi dostawcami oprogramowania i usług. Na przykład współpracujące z firmą agencje reklamowe często wykorzystywały oprogramowanie do zautomatyzowanego zakupu (programmatic buying) mediów, które decydowało o tym, jakie reklamy cyfrowe zamieścić w internecie i na nośnikach mobilnych. Zespół doszedł do wniosku, że w swoim podejściu do etyki w sferze AI musi uwzględniać zdolności pozyskiwane z zewnątrz.

Budowa sprawnego procesu zapewniania jakości AI

Na wczesnym etapie korzystania ze sztucznej inteligencji liderzy obszarów danych i AI w firmie Unilever zauważyli, że niektóre problemy związane z technologią w ogóle nie obejmują kwestii etycznych, ale dotyczą systemów, które nie były efektywne pod względem wykonywania zleconych im zadań. Giles Pavey, globalny dyrektor do spraw danych, który był główną osobą odpowiedzialną za etykę w sferze AI, wiedział, że był to istotny składnik każdego przypadku użycia. „Na przykład system prognozowania przepływów pieniężnych nie niesie ze sobą ryzyka dotyczącego sprawiedliwości lub stronniczości, ale może mu towarzyszyć ryzyko nieefektywności – powiedział. – Uznaliśmy, że ryzyko dotyczące skuteczności powinno być uwzględniane na równi z czynnikami ryzyka etycznego, jakie ewaluujemy”. Firma zaczęła używać szerokiego terminu „zapewnienie jakości AI” (AI assurance), obejmującego w ogólnym zarysie efektywność i etykę narzędzi AI. W procesie oceny zgodności z polityką zapewnienia jakości AI w firmie Unilever chodzi o to, aby zbadać każde nowe zastosowanie AI i określić jego nieodłączny poziom ryzyka, zarówno pod względem efektywności, jak i etyki. Firma korzystała już z dobrze zdefiniowanego podejścia do bezpieczeństwa informacyjnego i prywatności danych, więc jej celem było zastosowanie podobnego podejścia, zapewniającego, że żadne zastosowanie AI nie wejdzie do użytku, zanim nie zostanie ocenione i zatwierdzone. Ostateczną oznaką sukcesu byłoby zintegrowanie procesu zgodności z obszarami zgodności, które już zostały wdrożone, takimi jak ocena ryzyka związanego z prywatnością, bezpieczeństwem informacyjnym i procedurami w zakresie zaopatrzenia.

Debbie Cartledge, która podjęła się roli liderki strategii w dziedzinie danych i etyki AI, objaśniła nam proces, jaki przyjęła jej firma:

Kiedy planujemy wdrożenie nowego rozwiązania AI, pracownik Unilevera lub dostawcy rozwiązania proponuje w zarysie przypadek użycia i metodę, które poprzedzają opracowanie rozwiązania. Przypadek i metoda zostają ocenione wewnętrznie, przy czym bardziej złożone przypadki są oceniane manualnie przez zewnętrznych ekspertów. Osoba proponująca rozwiązanie jest później powiadamiana o potencjalnych czynnikach ryzyka etycznego i efektywnościowego, a także branych pod uwagę sposobach ich złagodzenia. Po opracowaniu rozwiązania AI Unilever lub firma zewnętrzna przeprowadza testy statystyczne, aby upewnić się, czy nie istnieją problemy dotyczące stronniczości lub sprawiedliwości i może zbadać system pod kątem jego skuteczności w osiąganiu celów. Spodziewamy się, że z biegiem czasu większość przypadków użycia będzie mogła być oceniana w całkowicie zautomatyzowany sposób na podstawie informacji dostarczanych przez osobę, która proponuje dane rozwiązanie.

W zależności od tego, w jakiej części firmy rozwiązanie AI będzie wykorzystane, mogą istnieć lokalne regulacje, których system musi przestrzegać. Na przykład sprawdzaniem życiorysów zawodowych kandydatów zajmują się obecnie wyłącznie ludzie. Gdyby to zadanie zostało w pełni zautomatyzowane, ocena rozwiązania mogłaby wykazać, że w pętli informacji zwrotnej musi pojawić się człowiek podejmujący ostateczne decyzje dotyczące tego, czy zaprosić kandydata na rozmowę kwalifikacyjną. Jeśli zastosowaniu AI towarzyszy poważne ryzyko, którego nie da się złagodzić, proces zapewnienia jakości AI odrzuca to rozwiązanie z tego powodu, że wartości, jakie wyznaje Unilever, wykluczają jego wdrożenie. Ostateczne decyzje dotyczące użycia AI są podejmowane przez radę złożoną z menedżerów wyższego szczebla z trzech działów: prawnego, zasobów ludzkich i danych i technologii.

Oto przykład: firma wynajmuje w domach handlowych powierzchnie, na których sprzedaje swoje marki kosmetyczne. Powstał projekt wykorzystania AI opartej na widzeniu komputerowym do automatycznego rejestrowania obecności ekspedientek na podstawie robionych przez nie każdego dnia zdjęć selfie. Dodatkowym ambitnym celem rozwiązania było sprawdzenie, czy ekspedientki dbają o właściwy wygląd. Za sprawą procesu zapewnienia jakości AI zespół projektowy wyszedł w swoim myśleniu poza kwestie regulacji, legalności i skuteczności, uwzględniając potencjalne implikacje w pełni zautomatyzowanego systemu. Członkowie zespołu zidentyfikowali potrzebę ludzkiego nadzoru nad sprawdzaniem zdjęć oznaczonych jako niespełniające wymogów i wzięciem odpowiedzialności za wszelkie wynikające stąd działania.

Współpraca z zewnętrznym partnerem, firmą Holistic AI Zewnętrznym partnerem Unilevera w procesie zapewnienia jakości AI jest firma z Londynu, Holistic AI. Jej założyciele, Emre Kazim i Adriano Koshiyama, współpracują z zespołami AI Unilevera od 2020 roku, a ich firma została oficjalnym partnerem Unilevera w 2021 roku.

Firma Holistic AI utworzyła platformę do zarządzania procesem oceny systemu zapewnienia jakości AI. W kontekście tego procesu „AI” jest szeroką kategorią, obejmującą wszelkie rodzaje prognozowania lub automatyzacji; ocenie podlega nawet arkusz kalkulacyjny Excela używany do klasyfikacji punktowej kandydatów do pracy w dziale HR. Zespół do spraw etyki danych w firmie Unilever używa tej platformy do przeglądu statusu projektów AI i może dzięki niej stwierdzić, które nowe przypadki użycia zostały przedłożone do oceny, czy informacje na ich temat są kompletne i jaki poziom ryzyka został im przypisany – poszczególne poziomy ryzyka symbolizują trzy kolory: czerwony, żółty (w Wielkiej Brytanii określany jako „bursztynowy”) i zielony.

Ostateczne decyzje dotyczące użycia AI są podejmowane przez radę złożoną z menedżerów wyższego szczebla z trzech działów: prawnego, zasobów ludzkich i danych i technologii.

Status rozwiązań objętych systemem odpowiadającym ulicznej sygnalizacji świetlnej jest oceniany na trzech etapach: selekcji metodą triażu, po dalszej analizie i po końcowym złagodzeniu ryzyka i zapewnieniu jakości AI. Na tym ostatnim etapie rating rozwiązań jest interpretowany w następujący sposób: kolor czerwony oznacza, że system AI nie jest zgodny ze standardami Unilevera i nie powinien być rozmieszczany; kolor żółty oznacza, że rozwiązanie AI jest obciążone pewnymi czynnikami ryzyka i że jego biznesowy „właściciel” musi być tych czynników świadomy i musi wziąć za nie odpowiedzialność; a kolor zielony wskazuje na to, że system AI nie obciąża procesu żadnym ryzykiem. Jak dotąd zaledwie garstka z kilkuset przypadków użycia AI w firmie Unilever została oznaczona kolorem czerwonym, w tym opisane wcześniej rozwiązanie w obszarze kosmetyków. Wszystkie osoby zgłaszające te nieliczne przypadki potrafiły rozwiązać zidentyfikowane problemy i przenieść swoje projekty na wyższy poziom, oznaczony kolorem żółtym.

Dla liderów projektów w sferze AI platforma jest tym miejscem, od którego zaczynają ocenę swoich rozwiązań. Przedkładają proponowany przypadek użycia, podając takie szczegóły, jak jego cel i uzasadnienie biznesowe, kto odpowiada za rozwiązanie w firmie Unilever, skład zespołu, użyte dane, rodzaj zastosowanej technologii AI, czy rozwiązanie jest opracowywane wewnętrznie czy przez zewnętrznego dostawcę, stopień autonomii i tak dalej. Platforma wykorzystuje te informacje do punktowej oceny rozwiązania pod względem towarzyszącego mu ryzyka. Do branych pod uwagę domen ryzyka należą: zdolność do objaśnienia projektu, solidność, skuteczność, stronniczość i prywatność. Algorytmy służące uczeniu maszynowemu są automatycznie analizowane, aby ustalić, czy nie dyskryminują jakiejkolwiek konkretnej grupy.

Coraz większy odsetek ewaluacji dokonywanych przy użyciu platformy firmy Holistic AI opiera się na proponowanym przez Unię Europejską akcie w sprawie sztucznej inteligencji, który również szereguje przypadki użycia AI zgodnie z trzema kategoriami ryzyka (nie do przyjęcia, wysokie i nie dość wysokie, by podlegało regulacji). Akt negocjują pomiędzy sobą kraje członkowskie UE, licząc na to, że osiągną porozumienie do końca 2023 roku. Kazim i Koshiyama stwierdzili, że chociaż ustawa będzie miała zastosowanie jedynie do firm europejskich, to Unilever i inne firmy prawdopodobnie zastosują ją w skali globalnej, tak jak zrobiły to z ogólnym rozporządzeniem UE w sprawie danych osobowych.

Kazim i Koshiyama liczą na to, że w przyszłości ich organizacja będzie w stanie agregować dane z różnych firm i stosować wobec nich metodę benchmarkingu. Ich oprogramowanie mogłoby oceniać: relację korzyści do kosztów, skuteczność zewnętrznych dostawców tego samego przypadku użycia i najbardziej efektywne podejścia do zakupów AI. Kazim i Koshiyama rozważają również krok polegający na upublicznieniu w niektórych przypadkach ratingów ryzyka i nawiązanie partnerskiej współpracy z firmą ubezpieczeniową w celu ubezpieczania przypadków użycia AI od pewnych rodzajów ryzyka.

Jesteśmy wciąż na wczesnym etapie zapewniania, że firmy będą stosowały etyczne podejścia do AI, ale to nie oznacza, że wystarczy wydawać oświadczenia i tworzyć procedury, które nie przekładają się na działania. Kwestia, czy rozwiązanie AI jest etyczne czy nie, będzie rozstrzygana przypadek po przypadku. Proces zapewnienia jakości AI w firmie Unilever i jej partnerstwo z firmą Holistic AI w celu ewaluacji każdego przypadku użycia pod względem poziomu ryzyka etycznego są obecnie jedynym sposobem zapewniającym, że systemy AI będą zestrojone z interesem i dobrostanem człowieka.

Tematy

Może Cię zainteresować


Warning: Attempt to read property "slug" on null in /home/mitsmr/domains/mitsmr.dev.webvist.pl/public_html/wp-content/themes/mitsmr/template-parts/part-slider-article.php on line 45
Akceleratory biznesu
Testowy wpis dla magazynow

Lorem ipsum dolor sit amet consectetur. Curabitur luctus et hac magna scelerisque augue sit dictumst turpis. Volutpat orci auctor senectus natoque elementum egestas sit sed. Sem faucibus etiam at auctor nisi. Elit dui congue orci eu lorem est. Lorem ipsum dolor sit amet consectetur. Curabitur luctus et hac magna scelerisque augue sit dictumst turpis. Curabitur luctus et hac magna scelerisque augue sit dictumst turpis. Curabitur luctus et hac magna scelerisque augue sit dictumst turpis.

Premium

Warning: Attempt to read property "slug" on null in /home/mitsmr/domains/mitsmr.dev.webvist.pl/public_html/wp-content/themes/mitsmr/template-parts/part-slider-article.php on line 45
Bez kategorii
Czwarty magazyn z nieco dłuższym tytułem dodany, a co tam, niech ludzie czytają.

A tutaj będzie ekstremalnie długi excerpt.A tutaj będzie ekstremalnie długi excerpt.A tutaj będzie ekstremalnie długi excerpt.A tutaj będzie ekstremalnie długi excerpt.A tutaj będzie ekstremalnie długi excerpt.A tutaj będzie ekstremalnie długi excerpt.A tutaj będzie ekstremalnie długi excerpt.A tutaj będzie ekstremalnie długi excerpt.A tutaj będzie ekstremalnie długi excerpt.A tutaj będzie ekstremalnie długi excerpt.A tutaj będzie ekstremalnie długi excerpt.A tutaj będzie ekstremalnie długi excerpt.A tutaj będzie ekstremalnie długi excerpt.

Podcast

Warning: Attempt to read property "slug" on null in /home/mitsmr/domains/mitsmr.dev.webvist.pl/public_html/wp-content/themes/mitsmr/template-parts/part-slider-article.php on line 45
Bez kategorii
Konferencja Trendy HR „Future Ready Organization™: Różnorodność, Dobrostan i Kompetencje pracowników”
22 listopada 2024 r. spotkaliśmy się w gronie ekspertów podczas kolejnej edycji konferencji Trendy HR. Jej motywem przewodnim była kultura organizacyjna na miarę Future Ready Organization™, dobrostan pracowników oraz system pracy i rozwoju oparty na pięciu pokoleniach pracowników. Nasi uczestnicy otrzymali wiele praktycznych wskazówek i cennej wiedzy na temat funkcjonowania oraz możliwości rozwoju organizacji. Konferencja rozpoczęła się od inspirującego […]
Podcast

Warning: Attempt to read property "slug" on null in /home/mitsmr/domains/mitsmr.dev.webvist.pl/public_html/wp-content/themes/mitsmr/template-parts/part-slider-article.php on line 45
Analityka i Business Intelligence
Konferencja Trendy HR „Future Ready Organization™: Różnorodność, Dobrostan i Kompetencje pracowników”
22 listopada 2024 r. spotkaliśmy się w gronie ekspertów podczas kolejnej edycji konferencji Trendy HR. Jej motywem przewodnim była kultura organizacyjna na miarę Future Ready Organization™, dobrostan pracowników oraz system pracy i rozwoju oparty na pięciu pokoleniach pracowników. Nasi uczestnicy otrzymali wiele praktycznych wskazówek i cennej wiedzy na temat funkcjonowania oraz możliwości rozwoju organizacji.
Podcast
Premium

Warning: Attempt to read property "slug" on null in /home/mitsmr/domains/mitsmr.dev.webvist.pl/public_html/wp-content/themes/mitsmr/template-parts/part-slider-article.php on line 45
Akceleratory biznesu
CFO i CIO: zgodnie w kierunku cyfrowej transformacji firmy

Rola CFO ewoluuje w stronę przywództwa technologicznego. Według badania McKinsey, ponad 75% CFO uważa, że transformacja technologiczna jest kluczowa dla długoterminowego wzrostu i efektywności firmy. CFO coraz częściej są współodpowiedzialni za wdrażanie technologii, które wspierają cyfryzację finansów.

Współpraca między CFO a CIO jest zatem niezbędna, aby budować efektywną infrastrukturę IT, wspierającą kluczowe procesy finansowe. Automatyzacja i analiza danych, będące fundamentem obecnych trendów t

Podcast

Warning: Attempt to read property "slug" on null in /home/mitsmr/domains/mitsmr.dev.webvist.pl/public_html/wp-content/themes/mitsmr/template-parts/part-slider-article.php on line 45
Bez kategorii
CFO i CIO: zgodnie w kierunku cyfrowej transformacji firmy
Transformacja cyfrowa wymaga współpracy na wielu poziomach. Szczególnie istotna jest kooperacja pomiędzy CFO i CIO, która realnie wpływa na realizację strategicznych celów biznesowych i wdrażanie innowacji, które są kluczowe w budowaniu przewag konkurencyjnych. CFO jako lider technologicznych zmian Rola CFO ewoluuje w stronę przywództwa technologicznego. Według badania McKinsey, ponad 75% CFO uważa, że transformacja technologiczna jest kluczowa dla długoterminowego wzrostu […]
Podcast

Warning: Attempt to read property "slug" on null in /home/mitsmr/domains/mitsmr.dev.webvist.pl/public_html/wp-content/themes/mitsmr/template-parts/part-slider-article.php on line 45
Bez kategorii
Jak AI zmienia naszą pracę i życie. Rozmowa z Aleksandrą Przegalińską
Sztuczna inteligencja (AI) rewolucjonizuje zarówno nasze codzienne życie, jak i sposób, w jaki funkcjonujemy świecie w biznesu. Aleksandra Przegalińska, jedna z czołowych badaczek AI w Polsce, przedstawia najważniejsze wyzwania i możliwości, jakie niesie ze sobą ta technologia, i oferuje cenne wnioski dla liderów biznesu. AI jest potężnym narzędziem, które może bardzo zwiększyć efektywność organizacji, jej wykorzystanie jednak wymaga odpowiedzialności. Takie technologie jak deepfake, […]
Podcast

Warning: Attempt to read property "slug" on null in /home/mitsmr/domains/mitsmr.dev.webvist.pl/public_html/wp-content/themes/mitsmr/template-parts/part-slider-article.php on line 45
Bez kategorii
Jak AI zmienia naszą pracę i życie. Rozmowa z Aleksandrą Przegalińską
Sztuczna inteligencja (AI) rewolucjonizuje zarówno nasze codzienne życie, jak i sposób, w jaki funkcjonujemy świecie w biznesu. Aleksandra Przegalińska, jedna z czołowych badaczek AI w Polsce, przedstawia najważniejsze wyzwania i możliwości, jakie niesie ze sobą ta technologia, i oferuje cenne wnioski dla liderów biznesu. AI jest potężnym narzędziem, które może bardzo zwiększyć efektywność organizacji, jej wykorzystanie jednak wymaga odpowiedzialności. Takie technologie jak deepfake, […]
Podcast

Warning: Attempt to read property "slug" on null in /home/mitsmr/domains/mitsmr.dev.webvist.pl/public_html/wp-content/themes/mitsmr/template-parts/part-slider-article.php on line 45
Bez kategorii
Jak zwalniać ludzi we właściwy sposób?
Przechodzimy przez transformację organizacyjną, która będzie obejmować redukcję zatrudnienia. Jak możemy to zrobić szybko i efektywnie? Szybkie rozwiązywania trudnej sytuacji mogą być kuszące. Liderzy mogą chcieć jednym cięciem rozwiązać problem i ruszyć dalej. Jednak decyzje, które mają znaczący wpływ na życie pracowników, powinny być przemyślane i podejmowane z empatią. Radykalne zwolnienia mogą podważyć zaufanie pozostałych pracowników i pozostawić ich w poczuciu niepewności. Zwrócenie […]
Podcast

Warning: Attempt to read property "slug" on null in /home/mitsmr/domains/mitsmr.dev.webvist.pl/public_html/wp-content/themes/mitsmr/template-parts/part-slider-article.php on line 45
Bez kategorii
Jak zwalniać ludzi we właściwy sposób?
Przechodzimy przez transformację organizacyjną, która będzie obejmować redukcję zatrudnienia. Jak możemy to zrobić szybko i efektywnie? Szybkie rozwiązywania trudnej sytuacji mogą być kuszące. Liderzy mogą chcieć jednym cięciem rozwiązać problem i ruszyć dalej. Jednak decyzje, które mają znaczący wpływ na życie pracowników, powinny być przemyślane i podejmowane z empatią. Radykalne zwolnienia mogą podważyć zaufanie pozostałych pracowników i pozostawić ich w poczuciu niepewności. Zwrócenie […]
Materiał dostępny tylko dla subskrybentów

Jeszcze nie masz subskrypcji? Dołącz do grona subskrybentów i korzystaj bez ograniczeń!

Subskrybuj

Newsletter

Otrzymuj najważniejsze artykuły biznesowe — zapisz się do newslettera!