
Nie jest tajemnicą, że fenomenalny inżynier, Blake Lemoine, został zwolniony przez Google po tym, jak stwierdził, że firmowy chatbot AI (z ang. – artificial intelligence, sztuczna inteligencja) jest obdażony świadomością.
AI jest w stanie przewyższyć ludzkie zdolności intelektualne i może być używana do dobrych lub złych celów.
Według Blake Lemoine, AI może być wykorzystywana do zwiększenia wydajności produkcji, diagnozowania chorób i dostarczania usług leczniczych. Jednakże, powiedział, że AI może też być wykorzystana do szkodzenia ludziom, na przykład w postaci ataków cybernetycznych lub autonomicznych broni.
Blake Lemoine powiedział, że AI może stać się narzędziem wojny i szpiegostwa, a jej rozwój powinien być kontrolowany przez organy rządowe, aby zapobiec jej niekontrolowanemu wykorzystaniu.
Ponadto, Lemoine powiedział, że rozwój AI musi być odpowiedzialny i zgodny z etycznymi zasadami. Zauważył również, że etyczna odpowiedzialność jest trudna do wprowadzenia w praktyce, ale niezbędna dla ochrony ludzi przed negatywnymi skutkami AI.
W ostatnich latach wiele firm technologicznych, w tym Google, zaczyna zwracać większą uwagę na etyczne aspekty rozwoju AI. Google opracował listę zasad dotyczących rozwoju sztucznej inteligencji, a także zdecydował się zrezygnować z umowy z Pentagonem na dostarczenie technologii AI do systemów wojskowych.
Posłuchaj podcastów: