To przeze mnie sztuczna inteligencja się myli | Sylwana Kaźmierska | TEDxKoszalin

  Рет қаралды 3,814

TEDx Talks

TEDx Talks

Жыл бұрын

Nie ma tygodnia, żebyśmy nie usłyszeli o sztucznej inteligencji popełniającej kolejny “głupi” błąd. Pół biedy, jeśli myli ona opalone nogi z parówkami, a psa leżącego na ganku z paczką od kuriera. Jednak Sztuczna Inteligencja zaczyna też decydować o wyrokach, diagnozach medycznych, cenzurze, czy wynikach rekrutacji. Skutki (często tragiczne) coraz częściej kojarzą nam się z najbardziej dystopijnymi wizjami z popkultury. Czy twórcy takich algorytmów też czują się jak bohaterowie książek science-fiction?
Prezentacja będzie poprowadzona z punktu widzenia osoby, która zawodowo wprowadza algorytmy sztucznej inteligencji na rynek. Jest więc spore ryzyko, że po spotkaniu prelegentka straci trochę w Twoich oczach, bo jej zawód nie będzie się już kojarzył tak magicznie i tajemniczo. Być może jednak doświadczysz też w jej trakcie momentu ?aha!?, po którym ciut lepiej zrozumiesz, jak się takie systemy tworzy, i czemu nie lubimy w określeniu ?sztuczna inteligencja? tego drugiego słowa. Sylwana z wykształcenia jest ekonometryczką, jednak z doświadczenia jest programistką sztucznej inteligencji. Specjalizuje się w analizie obrazów i przewidywaniu zdarzeń. Od 5 lat wdraża systemy sztucznej inteligencji w wielu branżach, np. medycznej, obronnej czy gamingowej.
Na swoim profilu na Instagramie - Programistka_ai, przybliża w przystępny sposób zagadnienia związane ze swoją pracą.
Dzięki działalności w Social Mediach trafiła do TOP 10 Women in AI w 2022 roku i uzyskała tytuł Top AI Promoter w tej samej klasyfikacji rankingu Perspektyw.
W swojej działalności stara się poruszać temat elastyczności Sztucznej Inteligencji, jej wpływu na otaczający nas świat oraz odczarowuje stereotypy dotyczące jej branży. This talk was given at a TEDx event using the TED conference format but independently organized by a local community. Learn more at www.ted.com/tedx

Пікірлер: 9
@kalinowskiadrian
@kalinowskiadrian Жыл бұрын
Dzięki za wykład. Ja patrzę z punktu widzenia programisty, jak inteligentna osoba się myli i nie potrafi przewidzieć. Powstają bugi. Dlatego na to trzeba uważać. Bo ktoś musi AI zweryfikować, bo chcemy jej powiedzieć jak ma funkcjonować. Podobnie jak z wychowaniem dziecka. Ma swoje kaprysy, lecz jako rodzic też coś nadajemy, wychowujemy. Np. patrząc na tytuł wykładu, sztuczna inteligencja analizując ten tytuł może dojść do wniosku że ma dojść do rozwoju, bo taki dostała cel, a tu dostaje informacje że przeze mnie się myli, wniosek maszyny: zlikwiduj człowieka bo to przez człowieka się myli. Człowiek to załapie, maszyna przyjmie i tak się może nauczyć, wziasc to za prawdę. Niby jest to prawda, lecz wniosek może byc z tych obserwacji dla maszyny nieoczekiwany.
@Kuszauke
@Kuszauke Жыл бұрын
A może jest jakieś merytoryczne wytłumaczenie dla ubu tych sytuacji, które były przedstawione aż tak negatywnie. Być może każda statystyka przestępczości pokaże, że czarnoskórzy dużo częściej pochodzą z biedniejszych dzielnic a to sprawia wzrost agresji oraz większe szanse na popełnienie przestępstwa. Być może jest powód, dla którego do dużego działu IT odrzuca się kobiety - być może w miejscu już zdominowanym przez mężczyzn kobieta, nawet kiedy miała by być dobrym pracownikiem mogła by np. negatywnie wpływać na samopoczucie mężczyzn, którzy musieli by się hamować ze swoim humorem. Ja nie wiem, nie znam się ani na jednym ani na drugim temacie. Nigdy nie współpracowałem z nikim z policji i nie jestem programistą.
@Kuszauke
@Kuszauke Жыл бұрын
No i oczywiście AI nie powinno na tak płytkich danych podejmować decyzji i o ile wydaje mi się, że w drugim przypadku (jeśli na prawdę było 100% odrzuceń) algorytm mógł działać niepoprawnie, bo faktycznie mógłby wgłębić się, czy dana osoba będzie pasować do zespołu i na przykład, nie będzie się dziwnie patrzeć na kogoś kto opowie jakiś nieprzyzwoity żart, skoro cały zespół lubi tego typu humor, to w pierwszym przypadku, algorytm z tego co pamiętam dosyć dobrze ilością decyzji pokrywał się że statystyką, więc wydaje mi się, że chyba jednak to nie jest przypadek, który powinniśmy krytykować.
@kalinowskiadrian
@kalinowskiadrian Жыл бұрын
​@@Kuszauke a ja myślę że powinniśmy analizować każdy przypadek i podlegać jego krytyce jeśli chodzi o tego typu rzeczy. Jednak przez 3 lata jakieś kobiety być może moglilyby być poszkodowane, tylko to wszystko tak naprawde to kwestia człowieka. Jakby mieć pretensje do młotka, że nie może przykręcić nim śruby. Musimy dobrze zrozumieć AI działa i gdzie można ją wrzucić a gdzie będzie działać wbrew nam.
@pawechmielewski9673
@pawechmielewski9673 Жыл бұрын
"A może jest jakieś merytoryczne wytłumaczenie dla ubu tych sytuacji, które były przedstawione aż tak negatywnie." Tak, jest. Algorytm logicznie z matematyczną precyzją oblicza fakty. Nawet nie wie kto jest jakiej rasy czy płci, bo takiej zmiennej mu się nie wprowadza (skoro ma nie być rozpoznawanym czynnikiem). No ale to jest TEDx, tu trzeba być poprawnym politycznie a nie logicznym. Jeśli fakty są niezgodne z oczekiwaniami maniaków, tym gorzej dla faktów, nie? Doszło do tego, że gadała tu nawet babka od statystyki. Przedstawiła, że gdy na pierwszy rzut oka niepowiązane cechy wykazują korelację, prawdopodobnie spowodowane jest to istnieniem trzeciego czynnika. Czy mówiąc o przestępczości szukała tego trzeciego czynnika? Nie XD Czarni są częściej skazywani bo oczywiście rasizm :D
@pavelos86
@pavelos86 Жыл бұрын
super!
@karolszmuksta8139
@karolszmuksta8139 Жыл бұрын
Bardzo ciekawy wykład, brawo!
@jednymstrzaem4473
@jednymstrzaem4473 Жыл бұрын
Dzięki,fajny wykład .
How to build trust with humor | Mike Fontaine | TEDxCornell
13:24
Beautiful gymnastics 😍☺️
00:15
Lexa_Merin
Рет қаралды 15 МЛН
Ilona Maher on resilience #shorts #tedx
1:00
TEDx Talks
Рет қаралды 11 М.
Una svolta green, ma quale? | Bruno Mazzarra | TEDxSapienzaU
17:09
Dream IT…DO IT | Laila Labib | TEDxSunmarkeSchool
8:29
TEDx Talks
Рет қаралды 348