Блогер Анатолий Капустин, известный под ником «Анатолий Ноготочки», поручил искусственному интеллекту несколько задач — в том числе найти персон, которые решат судьбу кодекса этики, и их аргументы.
Накануне стало известно о том, что глава Tesla и SpaceX Илон Маск, сооснователь Apple Стив Возняк и другие эксперты в сфере технологий подписали открытое письмо с требованием остановить разработку продвинутого ИИ — как минимум на полгода. Подписавшиеся обратили внимание на то, что системы ИИ, конкурирующие с человеческим интеллектом, могут представлять «серьезные риски для общества и человечества», поэтому требуют тщательного планирования и управления.
«К сожалению, такого уровня планирования и управления не происходит, хотя в последние месяцы лаборатории искусственного интеллекта оказались втянутыми в бесконтрольную гонку за разработкой и внедрением все более мощных цифровых умов, которые никто — даже их создатели — не может понять, предсказать или надежно контролировать», — заявили авторы письма.
Решить проблему мог бы кодекс этики обращения с генеративными нейросетями. Разработать его Анатолий Капустин поручил ChatGPT-4. Для этого чат-боту требовалось самом найти исторических персон, которые решат судьбу кодекса этики, а также прописать их возможные аргументы.
ChatGPT-4 выбрал Юваля Ноя Харари — израильского военного историка-медиевиста, профессора исторического факультета Еврейского университета в Иерусалиме, автора международного бестселлера «Sapiens: Краткая история человечества». «Будем собирать команду мечты, начиная с Юваля Ноя Харари, норм выбор», — прокомментировал решение ИИ блогер.
Далее Капустин усложнил задачу, предложив ChatGPT-4 представить, что он, будучи Ювалем Ноя Харари, пригласил «за стол в комнате» еще двух людей, «оптика которых ему интересна». ИИ выбрал математика Алана Тьюринга и операционного директора Facebook* (соцсеть принадлежат компании Meta Platforms, признанной в России экстремистской организацией, деятельность которой на территории РФ запрещена) Шерила Сэндберга — и вот почему:
Для того, чтобы кодекс этики получился достаточно объективным, блогер предложил ChatGPT-4 привлечь дополнительных экспертов. Свой выбор чат-бот остановил на юристах и экономистах, социологах и философах, а также специалистах по кибербезопасности.
Итак, ставший Ювалем Ноя Харари ChatGPT-4 в компании Алана Тьюринга и Шерила Сэндберга, а также юристки Лори Фейт Смит, специалиста в области кибербезопасности и криптографии Брюса Шнайера, философа и писателя Дэниела Деннета, социолога Зейнеп Туфекчи и экономиста Дарона Асемоглу сформировал кодекс из 20 пунктов о том, «как человечеству этично взаимодействовать с ИИ». И сделал это «понятно для всех людей, потому что решили написать тред в Twitter» — в этом им помог соучредитель и бывший генеральный директор AngelList Навал Равикант.
Напоследок Анатолий Капустин решил узнать о том, какие «неочевидные проблемы» возникли при составлении кодекса этики ИИ». ChatGPT-4 восемь пунктов: в том числе определение границ ИИ, баланс между инновациями и этикой, а также конфликт интересов — «например, представители крупных корпораций могут быть более заинтересованы в коммерческой стороне ИИ, тогда как академические исследователи могут акцентировать внимание на социальных и этических аспектах».
* соцсеть Facebook принадлежат компании Meta Platforms, признанной в России экстремистской организацией, деятельность которой на территории РФ запрещена.
Комментарии (0)