A co dzisiaj się stało?
]]>Ja naprawde nie chce sie z toba klocic dla samego klocenia i zgodzilbym sie z tym co piszesz, ale gdyby Waymo itd. byly firmami niemieckimi. Szkopul w tym, ze to sa firmy amerykanskie. W USA korporacyjny lobbying jest czesto skuteczniejszy niz w UE, zwlaszcze jesli chodzi o firmy z Doliny Krzemowej.
A zreszta, nawet w Niemczech, przeciez o machlojkach Volkswagena z poziomem zanieczyszczen w dieslach wiedziala wierchuszka firmy. I co, wsadzili kogos z dyrekcji niemieckiej do wiezienia? Tylko w USA byly wyroki wiezienia. Niemcy swoich orlow biznesu uchronia przed nieprzyjemnosciami.
]]>Probabilistycznie, mozemy rozsadnie zalozyc ze:
P(ustrzelony przez drona | byl na liscie) >> P(ustrzelony przez drona | nie byl na liscie)
P(nie ustrzelony przez drona | byl na liscie) << P(nie ustrzelony przez drona | nie byl na liscie)
Wiec nawet jesli nie mowimy o *pewnych* wydarzeniach, to software automatycznie zmienia ludzion prawdopodobienstwo dozycia nastepnego Ramadanu. I jakos ludzie to przelkneli, bo dotyczy do kogos daleko.
Oh wait, takimi algorytmami wsadza sie tez ludzi do wiezienia w USA: https://www.nytimes.com/2017/10/26/opinion/algorithm-compas-sentencing-bias.html
"No one knows exactly how COMPAS works; its manufacturer refuses to disclose the proprietary algorithm. We only know the final risk assessment score it spits out, which judges may consider at sentencing."
]]>Nie widziałeś jak się trzęsą odpowiedzialni za safety nawet u nas, gdzie ryzyko odsiadki jest przyzerowe, bo to tylko zegarki bez efektorów. W innych branżach też się siedzi, chociażby w budownictwie.
„Być może outsourcując część rozwoju technologii do takich firm jak Waymo (albo jeszcze mniejszych, które się tak nie promują), samemu skupiając się na integracji i testowaniu.”
Zanim to nastąpi, Waymo&co muszą się nauczyć robić to, co najważniejsze – czyli podkładki.
]]>Ja to rozumiem, ale różnica jest w tym, czy urządzenie samodzielnie uruchamia jakieś efektory, czy też pokazuje tylko człowiekowi że trzeba coś uruchomić. No i nawet medyczne roboty do robienia operacji wymagają wciśnięcia guzika przez człowieka, a samochód daje po hamulcach i kręci kierownicą sam.
„do wpisania na „kill list” do zatwierdzenia przez Pentagon podejmuje, automatycznie, decyzje o życiu i śmierci.”
Przeczytaj jeszcze raz, co sam napisałeś: „do zatwierdzenia przez Pentagon„
]]>To co, myślisz że ktoś z Ubera pójdzie siedzieć? Wątpię.
Zgadzam się z tobą, że firmy z SV lecą po bandzie. Dlatego moim zdaniem sukces osiągną raczej inicjatywy firm samochodowych, które też chcą kawałek tego tortu. Właśnie dlatego, że one zrobią to w testowalny, bezpieczny sposób. Być może outsourcując część rozwoju technologii do takich firm jak Waymo (albo jeszcze mniejszych, które się tak nie promują), samemu skupiając się na integracji i testowaniu.
]]>Trochę chodzimy w kółko więc nie ma sensu kontynuować dyskusji, ale wydaje mi się że nie doceniasz faktu, że to jak przetwarzasz dane to też jest podejmowanie decyzji.
Z innej beczki, znasz ten cytat z (byłego chyba już) szefa CIA: „We kill people based on metadata”? Metadane są przetwarzane automatycznie (bo jest ich dużo). Soft który dopisze albo usunie kogoś z listy kandydatów do wpisania na „kill list” do zatwierdzenia przez Pentagon podejmuje, automatycznie, decyzje o życiu i śmierci.
A bliżej Ciebie: Niemcy używają machine learning do rozpatrywania wniosków o azyl. Zawrócenie kogoś z Niemiec do Afganistanu bo program uznał, że akcent jest fałszywy więc aplikant zmyśla, to też decyzja o życiu i śmierci.
]]>Stałego czy rozmytego, jeden pies. Ważne że podejmuje decyzje, w odróżnieniu od softu medycznego, który tylko podaje dane do pojęcia decyzji człowiekowi.
]]>