Umělá inteligence zaznamenala v posledních měsících opravdu rapidní rozvoj a stává se tak nedílnou součástí našich životů. S neustálým vývojem a investicemi do AI ale také stoupá odpovědnost za její bezpečnost. Právě za ni chce ručit nová nezisková organizace ROOST.
Založena Googlem, OpenAI, Discordem a dalšími
Nová nezisková organizace byla představena v rámci události AI Action Summit, která se konala 10. a 11. února v Paříži. Jejím názvem je ROOST (Robust Open Online Safety Tools), tedy něco jako „robustní otevřené nástroje pro bezpečnost v online prostředí“. A za cíl si tato iniciativa dává zvýšit bezpečnost dětí ve světě internetu.
Za tímto účelem se spojily společnosti jako je Google, OpenAI, Discord a Roblox. Projekt ale významně podpořily i firmy Micorsoft, Mozilla, Github či Bluesky. Všechny společnosti, jež se k iniciativě přidají, získají přístup k open-sourcovým AI nástrojům, které jim pomohou s detekcí a monitorováním závadného obsahu pro děti.
Zdá se tak, že si tyto společnosti uvědomují svůj podíl na celé situaci. Například Google je dlouho známý pro své problémy s šířením explicitního obsahu generovaného umělou inteligencí. A velká vlna kritiky v minulosti zasáhla i herní platformu, Roblox. Ta čelila mnoha obviněním z nedostatečné kontroly her pro děti, které byly na platformě volně ke stažení. Díky nové organizaci by se mohlo podařit takovým situacím v budoucnu zabránit a ochránit děti před potenciálně nebezpečným obsahem.
Zdroj: androidheadlines.com
