Среди последних ИИ-проектов — нейросеть StyleDrop, которая может копировать стиль любого художника, а также ИИ-парфюмер, который может «чувствовать» запахи и создавать новые. Но в обновленной политике конфиденциальности эти инструменты не упоминаются. Google пишет о других нейросетях — тех, на которые корпорация, судя по всему, решила бросить все силы. В первую очередь новые правила касаются Bard — чат-бота с искусственным интеллектом, разработанного на основе языковой модели LaMDA. Проще говоря, это еще один аналог небезызвестного ChatGPT от OpenAI.
Видимо, на фоне серьезной конкуренции с OpenAI, которая претендует на монополию в сфере нейросетей, и другими компаниями, которые пытаются этому воспрепятствовать, в Google решили пойти на хитрость. В первых числах июля корпорация обновила свою политику конфиденциальности, прямо заявив в документе, что оставляет за собой право использовать практически всю информацию, опубликованную в интернете, для создания и развития своих инструментов искусственного интеллекта. То есть фактически Google отменил конфиденциальность данных, о которой так пекутся ее конкуренты и непосредственно пользователи.
Вне контекста это выглядит как преступление. Поэтому в Google заявили: эксплуатироваться данные будут исключительно во благо. «Google использует информацию для улучшения имеющихся услуг и разработки новых продуктов, функций и технологий, которые приносят пользу юзерам и всему обществу», — говорится в документе. Прежде всего, на этой информации будут обучать модели искусственного интеллекта и создавать инструменты по типу Google Translate, Bard и Cloud AI.
В Gizmodo пишут, что документ выглядит так, будто Google разрешает себе собирать и использовать любые данные, размещенные в любой части общедоступной сети. В корпорации новые правила пока никак не комментируют, поэтому вопрос, насколько такое вмешательство законно, все еще остается открытым.
При этом Google уже был замешан в странных разборках по поводу искусственного интеллекта. Прошлым летом корпорация отстранила от работы Блейка Лемуана — инженера, который тестировал языковую модель LaMDA. Из-за того, что Лемуан много общался с чат-ботом, у него возникли подозрения: уж не разумна ли нейросеть? Блейк отправил топ-менеджерам Google соответствующий отчет, в котором поделился отрывками бесед. Им очень не понравились мысли сотрудника. А после того, как Лемуан решил сделать вопрос публичным, его отправили в оплачиваемый административный отпуск.