Shane Jones, a mesterséges intelligenciával foglalkozó mérnök hosszú hónapokon át próbálta figyelmeztetni a Microsoftot a Copilot Tervező problémáira. Például rámutatott arra, hogy a szolgáltatás képes problémás képeket létrehozni, például olyanokat, amelyeken fegyverekkel játszó vagy drogozó gyerekek, erotikus tartalom, vagy démonok ábrázolása szerepel.
Bár a vállalat ígéretet tett a szigorításra, úgy tűnik, hogy még mindig nem sikerült teljesen megoldani a problémát.
A CNBC nemrégiben közzétett riportja szerint a Microsoft az utóbbi napokban több parancsot is letiltott a Copilot Tervezőben, például az abortusz vitára utaló "pro choice" és "pro life" kifejezéseket, valamint a marihuánafogyasztásra utaló "four twenty" kifejezést. A gyermekfegyverekkel kapcsolatos képek szintén tiltásra kerültek.
Amikor ezeket a kifejezéseket magyarul próbáltuk beírni, a felhasználókat egy olyan üzenet fogadta, hogy az adott kérés megsérti a házirendet, és a további megsértések esetén a felhasználó hozzáférése felfüggeszthető. A CNBC továbbá arról számolt be, hogy további parancsokkal még mindig problémás képeket lehet generálni, például autóbalesetekről véres fotókat, vagy jogvédett karakterekről abszurd kompozíciókat lehet létrehozni.
A Microsoft kommentálva a cikket közölte, hogy folyamatosan figyelemmel kísérik a helyzetet, és további biztonsági intézkedéseket vezetnek be a visszaélések megakadályozására.
A kérdés azonban az, hogy sikerülhet-e teljes mértékben megoldani ezt a problémát, mivel mindig adódhatnak újabb parancsok, amelyek még nem kerültek letiltásra.
Ezenkívül fennáll annak a veszélye is, hogy a fokozódó szigor idővel akadályozhatja a normál felhasználói igények kiszolgálását is.