Liderzy i eksperci techniczni wzywają do 6-miesięcznej przerwy od eksperymentowania z AI
Liderzy i eksperci techniczni wzywają do 6-miesięcznej przerwy od eksperymentowania z AI. Są zaniepokojeni (zbyt) burzliwymi wydarzeniami na tym terenie i brakiem bezpieczeństwa wokół.
List otwarty, podpisany przez liderów technologii i innych znanych naukowców zajmujących się sztuczną inteligencją, wzywa laboratoria AI i firmy do „ natychmiastowego zawieszenia ” swojej pracy. Sygnatariusze, w tym Steve Wozniak i Elon Musk, chcieliby zrobić co najmniej sześciomiesięczną przerwę od produkcji technologii opartych na GPT-4, aby wykorzystać istniejące systemy sztucznej inteligencji i umożliwić ludziom dostosowanie się oraz zapewnienie, że będą one przynosić korzyści wszystkim. W liście dodano, że myślenie i przewidywanie są niezbędne do zabezpieczenia systemów sztucznej inteligencji.
Liderzy i eksperci techniczni wzywają do 6-miesięcznej przerwy od eksperymentowania z AI
Odniesienie do GPT-4, modelu OpenAI, który może odpowiadać tekstem na wiadomości pisemne lub wizualne, pojawia się, gdy firmy już próbują opracować zaawansowane systemy czatu przy użyciu tej technologii. Na przykład Microsoft niedawno potwierdził, że przeprojektował swoją wyszukiwarkę Bing, aby wykorzystać model GPT-4. Z kolei Google niedawno uruchomił Bard, własny generatywny system sztucznej inteligencji oparty na LaMDA. Ten problem istnieje od dawna, ale firmy zajmujące się technologią wyścigową wydają się być jeszcze bardziej niepokojące.
„Niestety, ten poziom planowania i zarządzania nie istnieje, laboratoria sztucznej inteligencji ciężko pracują nad rozwojem i wdrażaniem wirtualnych mózgów, których nikt – nawet ich twórcy – nie jest w stanie zrozumieć, przewidzieć ani kontrolować w żaden sposób. Bezpieczny” – czytamy w oświadczeniu.
Są zaniepokojeni (zbyt) szybkim rozwojem sytuacji w okolicy i niepewnością wokół
List ten został opublikowany przez Instytut Przyszłości Życia (FLI), organizację zaangażowaną w zmniejszanie ryzyka i niewłaściwego wykorzystania nowych technologii. Wcześniej Elon Musk przekazał FLI 10 milionów dolarów na badania nad bezpieczeństwem sztucznej inteligencji. Oprócz Steve’a Wozniaka i tego ostatniego, istnieją wielkie nazwiska w dziedzinie sztucznej inteligencji, takie jak prezes Center for AI and Digital Policy Mark Rothenberg, fizyk MIT i prezes FLI Max Tegmark oraz pisarz Yuval Noah Harari. Ten ostatni napisał również w zeszłym tygodniu artykuł w New York Times na temat zagrożeń stwarzanych przez sztuczną inteligencję z założycielami Center for Humane Technology i innymi sygnatariuszami Tristanem Harrisem i Azą Raskin.
To wezwanie wydaje się w pewnym sensie logiczną kontynuacją ankiety przeprowadzonej w 2022 r., w której wzięło udział ponad 700 badaczy zajmujących się uczeniem maszynowym, z której wynika, że prawie połowa uczestników stwierdziła, że istnieje 10-procentowe prawdopodobieństwo, że konsekwencje sztucznej inteligencji będą „wyjątkowo złe” aż do wyginięcia ludzkości. Na pytanie o bezpieczeństwo badań nad sztuczną inteligencją 68% badaczy odpowiedziało, że należy zrobić więcej lub znacznie więcej.
Dodaj komentarz