Виталик Бутерин, сооснователь и фронтмен второй по величине блокчейн-платформы Ethereum, обратился к своему счету на социальной платформе X, чтобы поделиться своим негативным мнением о текущем состоянии продуктов, работающих на искусственном интеллекте, и в частности о ChatGPT компании OpenAI.
Бутерин выпустил пост, который раскрывает его довольно негативное отношение к флагманскому продукту OpenAI ChatGPT, когда речь идет о написании текстов и предоставлении советов в целом. Этот твит следует за блог-постом, опубликованным Бутериным в январе, в котором он выражает свои опасения о запуске сверхинтеллектуального ИИ в будущем.
Виталик осуждает ChatGPT как помощник по написанию
Бутерин прокомментировал метод написания статей с использованием помощи ChatGPT, когда автор пишет список маркированных пунктов, а затем передает его ChatGPT, “чтобы сделать правильную статью”. В этом случае соучредитель Ethereum считает, “часто лучше просто дать людям ключевые моменты”.
По мнению Виталика, разработанный OpenAI чат-бот добавляет много “словесного шума”, из-за чего такую статью очень сложно читать - “читатель вынужден бороться, чтобы извлечь полезную информацию из более, чем он добавляет полезного контекста.”
Кроме того, он поделился своим общим мнением по любым советам, связанным с искусственным интеллектом, говоря, что у него “срок жизни около 6 месяцев”.
В самом начале января Бутерин опубликовал твит, в котором призывал к громадному сокращению глобальных вычислений, чтобы дать человечеству несколько лет для подготовки к сингулярности. По этой причине, по его мнению, глобальная вычислительная мощность должна быть сокращена на 99%.
Эта амбициозная цель может быть достигнута путем проверки компьютерных пользователей и предоставления регистрации аппаратного обеспечения. Кроме того, по словам сооснователя Ethereum, промышленное вычислительное оборудование должно быть оснащено микросхемами только после получения разрешения на работу устройства.
Ограничение глобальной вычислительной мощности, по словам Бутерина, едва ли повлияет на разработчиков по всему миру. Но это может предотвратить появление “либо гибель, либо необратимое лишение человеческих возможностей, если технология будет создана неправильно”, - говорится в блоге, написанном им на эту тему. Если появятся какие-либо признаки приближения сверхинтеллектуального ИИ, эти упомянутые меры существенно замедлят его развитие, - говорит Бутерин.