기술 리더와 전문가는 AI 실험에서 6개월의 휴식을 요구합니다.
기술 리더와 전문가들은 AI 실험을 6개월간 중단할 것을 요구하고 있습니다. 그들은 이 지역의 (너무) 난기류 사건과 주변의 보안 부족에 대해 우려하고 있습니다.
기술 리더와 다른 유명 AI 연구자들이 서명한 공개 서한은 AI 연구실과 회사에 작업을 ” 즉시 중단 “할 것을 촉구합니다. Steve Wozniak과 Elon Musk를 포함한 서명자들은 기존 AI 시스템을 활용하고 사람들이 적응하고 모든 사람에게 혜택을 줄 수 있도록 하기 위해 GPT-4 기반 기술 생산에서 최소 6개월의 휴식을 취하고자 합니다. 이 편지는 AI 시스템을 보호하려면 생각과 예지력이 필수적이라고 덧붙였습니다.
기술 리더와 전문가는 AI 실험에서 6개월의 휴식을 요구합니다.
서면 또는 시각적 메시지에 텍스트로 응답할 수 있는 OpenAI 모델인 GPT-4에 대한 참조는 회사가 이미 이 기술을 사용하여 정교한 채팅 시스템을 개발하려고 시도하고 있기 때문에 나온 것입니다. 예를 들어 Microsoft는 최근 GPT-4 모델을 활용하기 위해 Bing 검색 엔진을 재설계했다고 확인했습니다. Google은 최근 LaMDA를 기반으로 하는 자체 생성 인공 지능 시스템인 Bard를 출시했습니다. 이 문제는 오랫동안 존재해 왔지만 오늘날 경주 기술 회사는 훨씬 더 걱정스러운 것 같습니다.
“안타깝게도 이러한 수준의 계획 및 관리는 존재하지 않습니다. AI 연구실은 그 누구도, 심지어 제작자조차도 어떤 식으로든 이해, 예측 또는 제어할 수 없는 가상 두뇌를 개발하고 배포하는 데 열심히 노력하고 있습니다. 안전합니다.”라고 스페셜에서 읽을 수 있습니다.
그들은 해당 지역의 (너무) 빠른 개발과 주변의 불안정에 대해 우려하고 있습니다.
이 편지는 신기술의 위험과 오용을 줄이기 위해 노력하는 조직인 FLI(Future of Life Institute)에서 발행했습니다. 앞서 Elon Musk는 AI의 안전성을 연구하기 위해 FLI에 천만 달러를 기부했습니다. Steve Wozniak과 후자 외에도 AI 및 디지털 정책 센터의 Mark Rothenberg 회장, MIT 물리학자이자 FLI의 Max Tegmark 회장, 작가 Yuval Noah Harari와 같은 AI 분야의 거물들이 있습니다. 후자는 또한 Center for Humane Technology 창립자 및 기타 서명자인 Tristan Harris 및 Aza Raskin과 함께 AI가 제기하는 위험에 대해 지난주 New York Times 특집 기사를 썼습니다.
이 호출은 2022년 700명 이상의 기계 학습 연구원을 대상으로 한 설문 조사에 대한 다소 논리적인 후속 조치로 보입니다. 참가자의 거의 절반이 AI의 결과가 인류가 멸종할 때까지 “매우 나쁠” 가능성이 10%라고 답한 것으로 나타났습니다. AI 연구의 안전성에 대한 질문에 연구원의 68%가 더 많이 또는 더 많이 수행해야 한다고 응답했습니다.
답글 남기기