Weryfikacja rzeczywistości w kwestii sztucznej inteligencji: notatki z rozmowy z Rapplerem

W ostatnich latach sztuczna inteligencja (AI) ewoluowała od słowa-klucza do siły transformacyjnej o głębokich implikacjach dla społeczeństwa. Jednak w miarę jak AI staje się coraz bardziej wyrafinowana, jej potencjalne ryzyko i dylematy etyczne również rosną. Były to najważniejsze wydarzenia i powtarzające się dyskusje podczas „Changemaker Series” Rapplera zatytułowanej „AI in Motion”.

Prezentacja Gemmy Mendozy, szefowej ds. dezinformacji i badań platform Rapplera, zatytułowana „Beyond the Hype: A Reality Check on AI”, poruszyła kilka kluczowych kwestii związanych z AI, rzucając światło zarówno na możliwości, jak i wyzwania, jakie stwarza ta technologia. Jednym z kluczowych punktów poruszonych przez Mendozę było rosnące wyrafinowanie deepfake’ów — treści generowanych przez AI, mających naśladować prawdziwe osoby lub wydarzenia.

Na przykład, ostatnie przykłady obejmują niedawne zarzuty dotyczące narkotyków wobec prezydenta Filipin Bongbonga Marcosa i jego rzekome nagranie dźwiękowe rozkazów wojskowych atakujących Chiny na spornym Morzu Zachodniofilipińskim. Takie incydenty podkreślają niebezpieczny potencjał sztucznej inteligencji, gdy jest wykorzystywana do oszukiwania i manipulowania opinią publiczną. Innym niepokojącym przykładem jest twierdzenie, że dyrektor generalna Rappler Maria Ressa, znana dziennikarka i laureatka Pokojowej Nagrody Nobla, oferowała kryptowalutę, kłamstwo generowane i rozpowszechniane przez oszustów za pośrednictwem sztucznej inteligencji. Te przypadki podkreślają, w jaki sposób sztuczna inteligencja może być wykorzystywana do szerzenia dezinformacji i tworzenia chaosu.

Mendoza wskazał, że zagrożenie nie tkwi tylko w samej technologii, ale także w jej zdolności do uczenia się i adaptacji. Rodzi to fundamentalne pytania o to, jak dostosować sztuczną inteligencję do ludzkich wartości, zapewnić jej uczciwość i rzetelność oraz opracować skalowalne mechanizmy nadzoru.

Być może najbardziej palącym pytaniem jest: kiedy sztuczna inteligencja popełnia błędy, kto ponosi za nie odpowiedzialność? W miarę jak systemy sztucznej inteligencji stają się bardziej autonomiczne, ustalanie odpowiedzialności staje się coraz bardziej złożone. Potencjalne ryzyko związane ze sztuczną inteligencją nie ogranicza się do dezinformacji. Mendoza podkreślił również szersze zagrożenia, takie jak bioterroryzm, nadzór i wojna. Technologie oparte na sztucznej inteligencji mogą być wykorzystywane do tworzenia i rozmieszczania broni biologicznej, zwiększania nadzoru państwowego, a nawet autonomicznego angażowania się w działania wojenne. Te zagrożenia podkreślają pilną potrzebę kompleksowych wytycznych i regulacji regulujących wykorzystanie sztucznej inteligencji, zapewniając, że jej rozwój i rozmieszczenie są zgodne ze standardami etycznymi i wartościami społecznymi.

W powiązanym wykładzie zatytułowanym „Reputation Re(AI)magined” Patrishy Estrady, liderki ds. nauki o danych w Nerve, uwaga została przeniesiona na wpływ sztucznej inteligencji na reputację organizacji i wizerunek publiczny.

Estrada zauważył, że rozwój AI nasilił kontrolę luki między reputacją a rzeczywistością. Systemy AI, często działające jako nieprzejrzyste „czarne skrzynki”, mogą zawierać uprzedzenia, które wpływają na ich wyniki. Ten problem uprzedzeń algorytmicznych jest szczególnie niepokojący, ponieważ może utrwalać istniejące nierówności i wzmacniać stereotypy. Estrada argumentował, że AI zasadniczo zmieniła sposób kształtowania, wyrażania i zarządzania przekonaniami i oczekiwaniami.

Platformy mediów społecznościowych, takie jak TikTok i YouTube, oparte na algorytmach AI, nadal udowadniają, że treści wideo są najbardziej angażującą formą komunikacji. Jednak korzystanie z AI na tych platformach rodzi również pytania o dokładność i uczciwość rozpowszechnianych informacji.

Trzecie i najważniejsze wystąpienie wydarzenia wygłosił Jonathan Yabut, jeden z wiodących mówców biznesowych w Azji, który omówił wpływ AI na rekrutację talentów, podnoszenie kwalifikacji i retencję. Yabut rozróżnił tradycyjną AI, która działa w oparciu o wstępnie zaprogramowane reguły i algorytmy, oraz AI generatywną, która obejmuje głębokie uczenie się i syntezę nowych informacji. Choć istnieje uzasadniona obawa, że ​​sztuczna inteligencja może doprowadzić do zmniejszenia siły roboczej w przyszłości, Yabut podkreślił, że przy właściwym wykorzystaniu sztuczna inteligencja ma potencjał do poprawy i zwiększenia wydajności człowieka w miejscu pracy.

Podsumowując, dyskusje te podkreślają dwoistą naturę sztucznej inteligencji: jest ona zarówno potężnym narzędziem postępu, jak i potencjalnym źródłem szkód.

Słowa pożegnalne Marii Ressy, dyrektor generalnej Rappler, na wydarzeniu służą jako przejmujące przypomnienie o naszej odpowiedzialności za kształtowanie przyszłości sztucznej inteligencji. Apelowała do wszystkich, aby nadal pisali, tworzyli i aktywnie uczestniczyli w kształtowaniu świata, jakiego chcemy dla przyszłych pokoleń. Pytanie, jakiej przyszłości chcemy dla naszych dzieci i w jaki sposób sztuczna inteligencja wpisuje się w tę wizję, jest kwestią, z którą wszyscy musimy się zmierzyć.

Aby sztuczna inteligencja (AI) działała zgodnie z prawem i rozwijała się w obliczu rosnących wyzwań, musi zintegrować system blockchain przedsiębiorstwa, który zapewnia jakość i własność danych wejściowych — umożliwiając jej zachowanie bezpieczeństwa danych, a jednocześnie gwarantując niezmienność danych. Sprawdź relację CoinGeek na temat tej nowej technologii, aby dowiedzieć się więcej, dlaczego Enterprise blockchain będzie podstawą AI.

Obejrzyj: Zrozumienie dynamiki blockchain i AI

Autor : BitcoinSV.pl

Źródło : A reality check on AI: Notes from a Rappler Talk – CoinGeek

Author: BitcoinSV.pl
CEO