С точки зрения Google, Bard выглядит как стремление конкурировать с ChatGPT, и некоторые сотрудники Google с этим согласны. В новом отчете Bloomberg были опрошены 18 нынешних и бывших сотрудников, и он полон осуждающих комментариев и опасений по поводу того, что команды по этике ИИ «лишаются гражданских прав и деморализуются», чтобы Google мог выгнать Барда за дверь.
Согласно отчету, сотрудников Google попросили протестировать предварительную версию Bard для получения их отзывов, которые в основном игнорировались, чтобы Bard мог запускаться быстрее. Внутренние обсуждения, просмотренные Bloomberg, назвали Барда «достойным шутки» и «патологическим лжецом». На вопрос, как посадить самолет, он дал неверные инструкции, которые привели бы к крушению. Один из сотрудников попросил дать инструкции по погружению и получил ответ, который, по его словам, «вероятно приведет к серьезной травме или смерти». Один из сотрудников описал проблемы Bard в февральском посте под заголовком «Bard хуже, чем бесполезен: пожалуйста, не запускайте». Bard был запущен в марте.
Вероятно, вы могли бы сказать то же самое о конкуренте ИИ, за которым гонится Google, — ChatGPT от OpenAI. Оба могут давать предвзятую или ложную информацию и галлюцинировать неправильные ответы. Google сильно отстает от ChatGPT, и компания в панике из-за способности ChatGPT отвечать на вопросы, которые в противном случае люди могли бы ввести в поиске Google. Создателя ChatGPT, OpenAI, критиковали за нестрогий подход к безопасности и этике ИИ. Сейчас Google находится в сложной ситуации. Если единственная забота компании — успокоить фондовый рынок и догнать ChatGPT, она, вероятно, не сможет этого сделать, если замедлит вопросы этики.
Мередит Уиттакер, бывший менеджер Google и президент Signal Foundation, сообщила Bloomberg, что «этика ИИ отошла на второй план» в Google, и говорит, что «если этика не будет иметь приоритет над прибылью и ростом, они не будут работать». В последние годы несколько руководителей Google по этике ИИ были уволены или покинули компанию. Bloomberg сообщает, что обзоры Google по этике ИИ сегодня «почти полностью добровольны».
Хотя вы могли бы сделать что-то в Google, чтобы попытаться замедлить выпуск релизов из-за этических проблем, это, вероятно, не пойдет на пользу вашей карьере. В отчете говорится: «Один из бывших сотрудников сказал, что просил поработать над справедливостью в машинном обучении, и его регулярно отговаривали — до такой степени, что это сказывалось на их оценке производительности. Менеджеры протестовали, что это мешает их «настоящей работе». “