Nasza strona wykorzystuje pliki cookies zgodnie z Polityką Cookies. Korzystając ze strony, wyrażasz zgodę na używanie cookies, zgodnie z aktualnymi ustawieniami przeglądarki
Zachwyt nad sztuczną inteligencją trwa. Uczymy się nowych narzędzi, by iść z duchem czasu, wprowadzać innowacje lub zwyczajnie ułatwiać sobie swoje codzienne zadania. Większość z nas ma jednak świadomość, że korzystanie z technologicznych zdobyczy AI ma swoją cenę. Niech pierwszy rzuci kamieniem ten, kto niemal nie skorzystał z nieautentycznych danych wygenerowanch przez ChatGPT w odpowiedzi na konkretne, specjalistyczne pytanie. A to jedynie wierzchołek góry lodowej. Czytajcie dalej, aby przekonać się, w których momentach współpracy z AI powinniśmy zachować szczególną czujność!
To naturalne, że ciekawość miesza się z niepewnością. Szczególnie dlatego warto poznać ryzyka towarzyszące większemu włączeniu sztucznej inteligencji w procesy organizacyjne w firmie. W ten sposób zyskamy pewność, że działania przyniosą pozytywne efekty, a nie będą skutkować dodatkowymi nieprzyjemnościami.
W kontekście generowania treści we współpracy z AI pojawia się wiele pytań dotyczących plagiaryzmu. Czy content pojawiający się za pomocą sztucznej inteligencji jest niczyj? A może należy do wszystkich? Jak regulować prawnie wykorzystanie treści generowanych przez sztuczną inteligencję?
Odpowiadając na te pytania musimy pochylić się nad pochodzeniem wspomnianych treści. Mimo złudnego wrażenia ChatGPT i inne podobne mu narzędzia nie są w stanie generować zupełnie unikalnych treści - mają bowiem funkcję odtwórczą. W skrócie - treści przez nie wytwarzane to specyficzna kompilacja, będąca mieszanką wielu różnych informacji znajdujących się w bazach danych. Korzystanie z pomocy AI przy tworzeniu artykułów branżowych, grafik itp. wciąż nie jest uregulowane prawnie. W praktycznym ujęciu, każdorazowo content wytworzony przez AI wyglądać będzie nieco inaczej, trudno więc mówić tu na razie o kwestii własności jako takiej.
Kiedy jednak korzystamy z bardzo specjalistycznej wiedzy, o małej ilości źródeł w temacie, musimy liczyć się z tym, że sztuczna inteligencja może stworzyć treść, zakrawającą o plagiat. Wynika to oczywiście z braku wystarczającej bazy do modyfikowania i parafrazowania treści (na szczęście wraz z narzędziami do generowania treści zaczynają się pojawiać takie, które pozwalają szybko wykrywać plagiat np. Copyleaks)
Inną kwestią związaną z etyką pozostaje tendencyjność treści wytwarzanych przez ChatGPT. Często przy tworzeniu dłuższych tekstów możemy się bowiem spotkać z uogólnieniami, upolitycznianiem itp. Ostatecznie tworzenie dłuższych artykułów może być więc nieco karkołomne. Bez odpowiedniego zadania pytania i określenia ram zadania, odpowiedzi mogą być nieodpowiednie z etycznego i społecznego punktu widzenia. ChatGPT doskonale sprawdzi się jednak kiedy na już potrzebna jest “burza mózgów” przy procesie wymyślania tytułu, budowania planu redakcyjnego, czy definiowaniu grup docelowych może być dobrym pomysłem.
Na rynku pojawia się coraz więcej narzędzi i technologii, które ułatwiają nam życie. Już teraz z pomocą AI jesteśmy w stanie zaplanować wyjazd, czy rozpisać strategię działań marketingowych na nowy rok. Rozszerzona wersja ChatGPT kusi nowymi funkcjonalnościami, które w prosty sposób zbierają i podsumowują dane z plików. Aby utworzyć gotowy raport z kilustronnicowego dokumentu wystarczy jedynie kilka kliknięć, a Chat wyczaruje nam podsumowanie, o jakim marzyliśmy.
Jak już zdążyliśmy jednak ustalić współpraca z AI nie ma jedynie zalet. Korzystając ze wsparcia ChatGPT, musimy mieć świadomość, że dane, które przesyłamy mogą zostać wykorzystane do trenowania sztucznej inteligencji. Co za tym idzie ryzyko upublicznienia wrażliwych informacji znacznie się zwiększa.
Podczas audytów w firmie, tworzenia personalizowanych treści czy analizowania zbiorów danych od klientów można mieć pokusę wrzucenia wszystkich danych do narzędzia, aby dostać jak najbardziej rzetelne wyniki. Kluczowym jest zachowanie ostrożności przy udostępnianiu informacji o wewnętrznym funkcjonowaniu organizacji. Nie można tutaj również zapomnieć o wymogach ochrony danych osobowych. Jeśli korzystamy tylko z tzw. open source nie powinniśmy udostępniać chronionych danych.
ALE!
Ochrona danych nie oznacza wcale konieczności zrezygnowania z narzędzi AI. Dostosowanie plików tak ,by były bezpieczne nie jest wcale takie trudne. Po usunięciu danych firmy i konkretnych osób pliki stają się o wiele bardziej uniwersalne, a co za tym idzie ryzyko wycieku danych staje się mniejsze. Przy odrobinie wysiłku nie musimy rezygnować z wykorzystywania przydatnych narzędzi 🙂
Wszyscy kojarzymy zdjęcia papieża Franciszka, które jakiś czas temu obiegły świat stając się viralem. Kolaboracja Balenciagi i głowy Kościoła wywołuje uśmiech, ponieważ łatwo się domyślić, że zdjęcia były efektem obróbki z wykorzystaniem sztucznej inteligencji (dokładnie programu Midjourney). Grafika została jednak wykonana na tyle realistycznie, że w innym kontekście rozpoznanie czy jest autentyczna, mogłoby przysporzyć nam więcej problemów.
No właśnie - co w sytuacji, gdy patrząc na dany obraz lub czytając tekst nie mamy pewności co jest prawdą, a co fałszem?
W dobie wszechobecności social mediów i szybkiego przekazywania informacji na co dzień dociera do nas masa komunikatów. Niekiedy “badania amerykańskich naukowców” lub “najświeższe doniesienia” okazują się przekłamanymi lub zupełnie niezgodnymi z prawdą informacjami. Winimy za to dziennikarzy, publicystów lub nieuważnych autorów wpisów, na które się nacieramy,a następnie weryfikujemy dane w wielu różnych źródłach tak, by jak najbardziej zbliżyć się do prawdy.
ChatGPT i inne narzędzia AI należy traktować z podobnym kredytem zaufania, jak inne przekaźniki informacji. Dobrą praktyką jest sprawdzanie źródeł treści, z których korzystamy i nie powielanie ich, jeśli nie mamy pewności, co do ich prawdziwości.
Z pomocą przychodzą nam też technologiczni giganci, tacy jak Google, który powoli zaczyna kontrolować i odsiewać obrazy wygenerowane przez AI w “Google Grafika”. Nowa funkcjonalność ma być wsparciem dla użytkowników w ustaleniu autentyczności zdjęć i elementem misji Google w moderowaniu treści internetowych.
Sztuczna inteligencja bez wątpienia otwiera wiele możliwości, równocześnie wszyscy jesteśmy coraz bardziej świadomi zagrożeń i wad nowych narzędzi. Pierwszym krokiem do poradzenia sobie z wyzwaniami, które ze niesie ze sobą AI jest zidentyfikowanie ryzyka. To już mamy! Dalej pozostaje jedynie korzystać z nowych technologii z głową!
Automatyzacja i optymalizacja to bez wątpienia coś wspaniałego, ale nie zapominajmy przy tym o etyce i bezpieczeństwie.
Więcej o tym, jak możesz wykorzystać sztuczną inteligencję w komunikacji wewnętrznej dowiesz się z naszego artykułu: https://icomms.pl/sposoby-wykorzystania-ai-w-komunikacji-wewnetrznej/
Temat AI w komunikacji wewnętrznej zgłębialiśmy również podczas webinaru z Łukaszem i Grzegorzem z workai.
Kliknijcie poniżej, aby obejrzeć:
Przy pisaniu artykułu korzystaliśmy z tych źródeł:
https://www.axiapr.com/blog/how-to-ethically-use-ai-in-public-relations
Szkolenie przeznaczone dla osób, które chcą wprowadzić bądź usprawnić/rozwinąć pomiary efektywności komunikacji w swojej organizacji. Uczestnicy_czki: