Opanuj GenAI. Co zrobić, żeby Twoja sztuczna inteligencja nie poszła w szkodę?
ฝัง
- เผยแพร่เมื่อ 8 พ.ย. 2024
- 📅Środa, 18 września o 19:00.
Popularność technologii AI zrewolucjonizowała świat biznesu. Ilość aplikacji tego typu technologii rośnie lawinowo zarówno w małych przedsiębiorstwach jak i największych korporacjach. Poza popularnością rośnie również ilość incydentów związanych z bezpieczeństwem. Twórcy modeli AI zapewniają, że te są w pełni bezpieczne i niezawodne - ale czy rzeczywiście tak jest?
Na webinarze poznasz specjalistyczne narzędzia służące do kontroli AI. Llama Gaurd to narzędzie pozwalające filtrować dane wejściowe i wyjściowe, dzięki czemu modele nie będą generować i przetwarzać treści szkodliwych, jak przemoc czy mowa nienawiści. Dzięki LLM Observability i Pheonix Arrize można w czasie rzeczywistym monitorować modele, narzędzia te pozwalają wykrywać takie problemy jak wolne i nieoczekiwane odpowiedzi czy spadki dokładność działania modelu. Z kolei LangKit od WhyLabs to rozwiązanie zapewniające, że odpowiedzi AI są bezpieczne i spełniają odgórnie określone wytyczne.
Rzeczywistość pokazuje, że przewidzenie wszystkich scenariuszy działania technologii opartych o AI jest niemożliwe. Dodatkowo wiele osób próbuje obejść ich zabezpieczenia, nie zawsze z dobrymi intencjami. Jak w takiej sytuacji możesz mieć pewność, że model wykona dokładnie to, czego od niego oczekujesz?
Co na Ciebie czeka:
✅Rozmowa o tym, dlaczego nie powinniśmy bezgranicznie ufać twórcom modeli
✅Źródła potencjalnych problemów, na które można napotkać używając modeli AI
✅Praktyczne sposoby kontroli technologii tego typu
✅Wskazówki pozwalające sprawić, że sztuczna inteligencja będzie wykonywać nasze polecenia
✅Sposoby na ograniczenie działań sztucznej inteligencji do tego, czego od niej oczekujemy
✅Sesja pytań i odpowiedzi
…i wiele więcej!
Na webinarze dowiesz się
1️⃣ Jakie są zagrożenia związane z bezpieczeństwem technologii AI
2️⃣ Co zrobić, aby modele AI robiły to, czego od nich oczekujemy, ale nic ponadto
3️⃣ Jak wygląda kurs GenAI Code i co go wyróżnia
Więcej o kursie GenAI Code: genaicode.elep...