AI, komunikacja korporacyjna, rozwój, trendy
10 stycznia 2024 4 min czytania

Sztuczna inteligencja w komunikacji wewnętrznej - czy możemy jej ufać?

 

Zachwyt nad sztuczną inteligencją trwa. Uczymy się nowych narzędzi, by iść z duchem czasu, wprowadzać innowacje lub zwyczajnie ułatwiać sobie swoje codzienne zadania. Większość z nas ma jednak świadomość, że korzystanie z technologicznych zdobyczy AI ma swoją cenę. Niech pierwszy rzuci kamieniem ten, kto niemal nie skorzystał z nieautentycznych danych wygenerowanch przez ChatGPT w odpowiedzi na konkretne, specjalistyczne pytanie. A to jedynie wierzchołek góry lodowej. Czytajcie dalej, aby przekonać się, w których momentach współpracy z AI powinniśmy zachować szczególną czujność!

Etyka

To naturalne, że ciekawość miesza się z niepewnością. Szczególnie dlatego warto poznać ryzyka towarzyszące większemu włączeniu sztucznej inteligencji w procesy organizacyjne w firmie. W ten sposób zyskamy pewność, że działania przyniosą pozytywne efekty, a nie będą skutkować dodatkowymi nieprzyjemnościami.

W kontekście generowania treści we współpracy z AI pojawia się wiele pytań dotyczących plagiaryzmu. Czy content pojawiający się za pomocą sztucznej inteligencji jest niczyj? A może należy do wszystkich? Jak regulować prawnie wykorzystanie treści generowanych przez sztuczną inteligencję?

Odpowiadając na te pytania musimy pochylić się nad pochodzeniem wspomnianych treści. Mimo złudnego wrażenia ChatGPT i inne podobne mu narzędzia nie są w stanie generować zupełnie unikalnych treści - mają bowiem funkcję odtwórczą. W skrócie - treści przez nie wytwarzane to specyficzna kompilacja, będąca mieszanką wielu różnych informacji znajdujących się w bazach danych. Korzystanie z pomocy AI przy tworzeniu artykułów branżowych, grafik itp. wciąż nie jest uregulowane prawnie. W praktycznym ujęciu, każdorazowo content wytworzony przez AI wyglądać będzie nieco inaczej, trudno więc mówić tu na razie o kwestii własności jako takiej.

Kiedy jednak korzystamy z bardzo specjalistycznej wiedzy, o małej ilości źródeł w temacie, musimy liczyć się z tym, że sztuczna inteligencja może stworzyć treść, zakrawającą o plagiat. Wynika to oczywiście z braku wystarczającej bazy do modyfikowania i parafrazowania treści (na szczęście wraz z narzędziami do generowania treści zaczynają się pojawiać takie, które pozwalają szybko wykrywać plagiat np. Copyleaks)

Inną kwestią związaną z etyką pozostaje tendencyjność treści wytwarzanych przez ChatGPT. Często przy tworzeniu dłuższych tekstów możemy się bowiem spotkać z uogólnieniami, upolitycznianiem itp. Ostatecznie tworzenie dłuższych artykułów może być więc nieco karkołomne. Bez odpowiedniego zadania pytania i określenia ram zadania, odpowiedzi mogą być nieodpowiednie z etycznego i społecznego punktu widzenia. ChatGPT doskonale sprawdzi się jednak kiedy na już potrzebna jest “burza mózgów” przy procesie wymyślania tytułu, budowania planu redakcyjnego, czy definiowaniu grup docelowych może być dobrym pomysłem.

Prywatność

Na rynku pojawia się coraz więcej narzędzi i technologii, które ułatwiają nam życie. Już teraz z pomocą AI jesteśmy w stanie zaplanować wyjazd, czy rozpisać strategię działań marketingowych na nowy rok. Rozszerzona wersja ChatGPT kusi nowymi funkcjonalnościami, które w prosty sposób zbierają i podsumowują dane z plików. Aby utworzyć gotowy raport z kilustronnicowego dokumentu wystarczy jedynie kilka kliknięć, a Chat wyczaruje nam podsumowanie, o jakim marzyliśmy.

Jak już zdążyliśmy jednak ustalić współpraca z AI nie ma jedynie zalet. Korzystając ze wsparcia ChatGPT, musimy mieć świadomość, że dane, które przesyłamy mogą zostać wykorzystane do trenowania sztucznej inteligencji. Co za tym idzie ryzyko upublicznienia wrażliwych informacji znacznie się zwiększa.

Podczas audytów w firmie, tworzenia personalizowanych treści czy analizowania zbiorów danych od klientów można mieć pokusę wrzucenia wszystkich danych do narzędzia, aby dostać jak najbardziej rzetelne wyniki. Kluczowym jest zachowanie ostrożności przy udostępnianiu informacji o wewnętrznym funkcjonowaniu organizacji. Nie można tutaj również zapomnieć o wymogach ochrony danych osobowych. Jeśli korzystamy tylko z tzw. open source nie powinniśmy udostępniać chronionych danych.

ALE!

Ochrona danych nie oznacza wcale konieczności zrezygnowania z narzędzi AI. Dostosowanie plików tak ,by były bezpieczne nie jest wcale takie trudne. Po usunięciu danych firmy i konkretnych osób pliki stają się o wiele bardziej uniwersalne, a co za tym idzie ryzyko wycieku danych staje się mniejsze. Przy odrobinie wysiłku nie musimy rezygnować z wykorzystywania przydatnych narzędzi 🙂

Deepfake

Wszyscy kojarzymy zdjęcia papieża Franciszka, które jakiś czas temu obiegły świat stając się viralem. Kolaboracja Balenciagi i głowy Kościoła wywołuje uśmiech, ponieważ łatwo się domyślić, że zdjęcia były efektem obróbki z wykorzystaniem sztucznej inteligencji (dokładnie programu Midjourney). Grafika została jednak wykonana na tyle realistycznie, że w innym kontekście rozpoznanie czy jest autentyczna, mogłoby przysporzyć nam więcej problemów.

No właśnie - co w sytuacji, gdy patrząc na dany obraz lub czytając tekst nie mamy pewności co jest prawdą, a co fałszem?

W dobie wszechobecności social mediów i szybkiego przekazywania informacji na co dzień dociera do nas masa komunikatów. Niekiedy “badania amerykańskich naukowców” lub “najświeższe doniesienia” okazują się przekłamanymi lub zupełnie niezgodnymi z prawdą informacjami. Winimy za to dziennikarzy, publicystów lub nieuważnych autorów wpisów, na które się nacieramy,a następnie weryfikujemy dane w wielu różnych źródłach tak, by jak najbardziej zbliżyć się do prawdy.

ChatGPT i inne narzędzia AI należy traktować z podobnym kredytem zaufania, jak inne przekaźniki informacji. Dobrą praktyką jest sprawdzanie źródeł treści, z których korzystamy i nie powielanie ich, jeśli nie mamy pewności, co do ich prawdziwości.

Z pomocą przychodzą nam też technologiczni giganci, tacy jak Google, który powoli zaczyna kontrolować i odsiewać obrazy wygenerowane przez AI w “Google Grafika”. Nowa funkcjonalność ma być wsparciem dla użytkowników w ustaleniu autentyczności zdjęć i elementem misji Google w moderowaniu treści internetowych.

W którą stronę?

Sztuczna inteligencja bez wątpienia otwiera wiele możliwości, równocześnie wszyscy jesteśmy coraz bardziej świadomi zagrożeń i wad nowych narzędzi. Pierwszym krokiem do poradzenia sobie z wyzwaniami, które ze niesie ze sobą AI jest zidentyfikowanie ryzyka. To już mamy! Dalej pozostaje jedynie korzystać z nowych technologii z głową!

Automatyzacja i optymalizacja to bez wątpienia coś wspaniałego,  ale nie zapominajmy przy tym o etyce i bezpieczeństwie.

 

Więcej o tym, jak możesz wykorzystać sztuczną inteligencję w komunikacji wewnętrznej dowiesz się z naszego artykułu: https://icomms.pl/sposoby-wykorzystania-ai-w-komunikacji-wewnetrznej/

Wolicie oglądać zamiast czytać?

Temat AI w komunikacji wewnętrznej zgłębialiśmy również podczas webinaru z Łukaszem i Grzegorzem z workai.

Kliknijcie poniżej, aby obejrzeć:

 

Przy pisaniu artykułu korzystaliśmy z tych źródeł:

https://instituteforpr.org/artificial-intelligence-the-law-and-public-relations-navigating-the-legal-contours-of-ai-in-pr/

https://www.axiapr.com/blog/how-to-ethically-use-ai-in-public-relations

https://www.businessinsider.in/tech/news/google-is-launching-a-tool-that-helps-users-to-identify-whether-a-picture-is-ai-generated/articleshow/100167371.cms

NAJBLIŻSZE WYDARZENIA

Szkolenie online | SZKOLENIE OTWARTE

Akademia Komunikacji Wewnętrznej

ONLINE, 17 marca-5 maja 2025
  • 8 tygodni kursu: 8 sesji tematycznych online (2h) + 8 sesji Q&A online (1h),
  • 10 modułów szkoleniowych,
  • praktyczne zadania pomiędzy sesjami z indywidualnym feedbackiem od trenera,
  • dostęp do pełnego zestawu materiałów dodatkowych,
  • 3-miesięczny mentoring indywidualny po szkoleniu.
2990 pln Grupa szkoleniowa: max. 9 osób
zobacz szczegóły
SZKOLENIE OTWARTE

Efektywna komunikacja wewnętrzna

Warszawa, 27-28 lutego 2025
  • budowanie strategii komunikacji wewnętrznej,
  • dobór kanałów komunikacji do odbiorców,
  • trendy w obszarze nowych kanałów,
  • przygotowywanie skutecznych komunikatów,
  • narzędzia badające efektywność komunikacji.

 

3890 pln
2 dni szkolenia
Grupa szkoleniowa: max. 9 osób
zobacz szczegóły
SZKOLENIE OTWARTE

Mierzenie efektywności komunikacji wewnętrznej (poziom podstawowy)

Warszawa, 13 marca 2025

Szkolenie przeznaczone dla osób, które chcą wprowadzić bądź usprawnić/rozwinąć pomiary efektywności komunikacji w swojej organizacji. Uczestnicy_czki:

  • poznają teorie i zasady stanowiące bazę do prowadzenia dobrych pomiarów,
  • zapoznają się z dobrymi praktykami innych firm,
  • znajdą punkt wyjścia lub inspirację do działania w swojej organizacji.
2190 pln
1 dzień szkolenia
Grupa szkoleniowa: 9
zobacz szczegóły

Pozostałe wpisy