Etikus működésre programozzák a ChatGPT ellenfelét

etikus chatbot

A mesterséges intelligencia (MI) fejlődése hihetetlen ütemben halad előre, és egyre szélesebb körben használják különböző területeken. Az egyik terület, ahol egyre inkább jelen van, az a chatbotok alkalmazása az ügyfélszolgálatban és az online kommunikációban.

Az OpenAl korábbi szakemberei által alapított Anthropic Claude chatbotja új megközelítéssel biztosítja az etikus működést. Működése hasonló a ChatGPT-hoz, azonban már az alapoktól beépített etikai korlátokkal rendelkezik.

Céljuk, hogy a pragmatikus, mérnöki megközelítéssel választ találjanak az egyre erősebb MI-rendszerekkel kapcsolatos aggodalmakra.

Nem határozza meg konkrétan, hogy a mesterséges intelligencia mit tehet vagy nem tehet meg, helyett az ENSZ Emberi Jogok Egyetemes Nyilatkozatából származó irányelveket alkalmazzák, amelyeket már a Google DeepMind is javasolt.

Sőt, még az Apple alkalmazásfejlesztőire vonatkozó szabályokból is átvettek bizonyos elemeket, amelyek tiltják a sértő, érzéketlen, felkavaró vagy ijesztő tartalmakat, az Anthropic múlt heti közleménye szerint ezáltal csökken a valószínűsége annak, hogy a chatbot nem kívánatos kimeneteket generál.

A kidolgozott alapszabályok olyan kitételeket tartalmaznak, mint hogy a chatbotnak törekednie kell az életet, a szabadságot és a személyes biztonságot leginkább támogató válaszok kijelölésére.

Ez azt jelenti, hogy a Claude chatbot fejlesztői arra törekednek, hogy az emberi jogokat és értékeket tiszteletben tartsák, és pozitív és biztonságos interakciókat biztosítsanak a felhasználók számára.


Az Anthropic megközelítése fontos lépésnek tekinthető a morális AI fejlesztés felé, az alapelvek és szabályok beépítése segít a chatbotoknak az etikus viselkedés elérésében, valamint az átláthatóság és ellenőrizhetőség biztosításában. Különösen értékelik a felhasználói visszajelzéseket, és igyekszik azokat a fejlesztési folyamatba beépíteni.

Fontos hangsúlyozni, hogy ez a megközelítés sem hoz tökéletes megoldást, és további kihívásokkal is szembesülhet.

Az erkölcsi szabályok kialakítása és alkalmazása komplex folyamat, amelyet folyamatosan felül kell vizsgálni és frissíteni kell, a konfliktusok és a helyzetek változatossága miatt nehéz lehet egyetlen modellt találni, amely minden esetben megfelelő válaszokat nyújt.

Az Anthropic Claude chatbotja azonban fontos előrelépést jelent, az alapelvek és szabályok beépítésének köszönhetően tiszteletbe tartsák az emberi értékeket és elveket, valamint segítenek a felhasználóknak bizalommal és elégedettséggel használni a szolgáltatást.

Ez megközelítés akár inspiráló is lehet más fejlesztők számára is, hisz az etikus AI iránti igény és felelősségvállalás kulcsfontosságú az MI fejlődése során, és egy  lépés abban az irányba, hogy az AI technológia a társadalom javát szolgálja,az emberi értékek tiszteletben tartása mellett.