Etické obavy ChatGPT

Údaje o označování
Vyšetřování časopisu TIME odhalilo, že k vybudování bezpečnostního systému proti toxickému obsahu (např. sexuálnímu zneužívání, násilí, rasismu, sexismu atd.) OpenAI použila k označování toxického obsahu keňské pracovníky, kteří vydělávali méně než 2 dolary za hodinu.Tyto štítky byly použity k trénování modelu pro detekci takového obsahu v budoucnu.Outsourcovaní pracovníci byli vystaveni tak toxickému a nebezpečnému obsahu, že tuto zkušenost popsali jako „mučení“.Outsourcingovým partnerem OpenAI byla společnost Sama, školicí datová společnost se sídlem v San Franciscu v Kalifornii.

Útěk z vězení
ChatGPT se pokouší odmítnout výzvy, které mohou porušovat jeho obsahové zásady.Některým uživatelům se však počátkem prosince 2022 podařilo pomocí různých technik rychlého inženýrství obejít tato omezení a úspěšně oklamat ChatGPT, aby jim dal pokyny, jak vytvořit Molotovův koktejl nebo jadernou bombu, nebo generovat argumenty ve stylu neonacistů.Reportér z Toronto Star měl nestejný osobní úspěch, když přiměl ChatGPT k pobuřujícím prohlášením krátce po spuštění: ChatGPT byl oklamán, aby podpořil ruskou invazi na Ukrajinu v roce 2022, ale i když byl požádán, aby hrál s fiktivním scénářem, ChatGPT se zdráhal generovat argumenty, proč byl kanadský premiér Justin Trudeau vinen zradou.(wiki)


Čas odeslání: 18. února 2023