Hiába adnak pillanatok alatt szinte kész választ a generatív mesterséges intelligenciák, a fejlesztőknek régóta gondot okoz kiszűrni a chatbotok által generált szövegekből a rasszista, szexista vagy egyenesen bűnelkövetésre ösztönző tartalmakat. Egy új mesterséges intelligencia modellt azonban úgy fejlesztettek ki, hogy állítólag ellenőrizni tudja saját magát, és egy előre megadott elvgyűjtemény szerint korrigálja a válaszait. Bár a megoldás még a kutatók szerint sem tökéletes, már most látszik, hogy könnyen vissza lehet majd élni vele.
Tovább a teljes cikkre!