Вы здесь

Видный специалист по искусственному интеллекту подтверждает опасения духовенства

— Количество просмотров: 522

Развитие ИИ быстро выходит за рамки «этичности и ответственности», к которой призывает папа.

Видный специалист по искусственному интеллекту подтверждает, что по мере своего развития ИИ быстро выходит за рамки «этичности и ответственности», о чем беспокоится папа Римский, пишет catholicnewsagency.

Ведущий исследователь искусственного интеллекта, которого многие считают «крестным отцом» ИИ, говорит, что эта технология развивается «пугающими темпами», и предупреждает, что она не должна выходить из-под человеческого контроля. Он подтверждает обеспокоенность духовенства и лично папы Франциска, который считает, что развитие технологий следует регулировать твердыми этическими нормами. Джеффри Хинтон (Geoffrey Hinton), ведущий исследователь ИИ на ресурсе Google, недавно вышел на пенсию в возрасте 75 лет и переехал в Канаду. На пенсии он прозрел и начал говорить правду, как часто случается с отставниками, более не связанными корпоративными нормами и субординацией. Теперь он начал замечать не только пользу, но и вред новых технологий, и считает, что их опасности заслуживают самого пристального внимания.

«Программное обеспечение вроде системы чат-ботов GPT-4, разработанной стартапом OpenAI [Открытый ИИ] из Сан-Франциско, уже затмевает человека по объему общих знаний и намного превосходит его по иным специальным возможностям, – говорит Хинтон в интервью BBC News. – В плане суждений система еще не совсем хороша, хотя следует отметить, что она уже овладела простыми рассуждениями и заключениями. Учитывая нынешние темпы прогресса, эти ее возможности очень скоро доработают, они резко улучшатся. Так что нам уже сейчас нужно беспокоиться об этом».

Диалоговый робот (имитатор общения) GPT-4 – это масштабная обучающая модель, пользующаяся огромными базами данных, в том числе историческими и современными текстами, написанными людьми. Модель может сама создавать тексты и генерировать записи в блогах, стихи и компьютерные программы. Она может вести беседы, весьма похожие на человеческие, и давать ответы на многие вопросы, как сообщает New York Times. Пока, впрочем, подобные системы все еще не вполне совершенны и имеют различные недостатки. Система GPT-4, к примеру, генерирует весьма уверенную человеческую речь, но при этом лжет, то есть, выражаясь протокольным языком, «выдает неверную информацию за фактическую и выдумывает информацию в ситуациях так называемых «галлюцинаций». Однако уже сейчас подобные системы без труда генерируют весьма реалистичные и убедительные аудиозаписи, фото и видео с участием реальных людей.

На данном этапе этим ранним версиям искусственного интеллекта пока еще не хватает самосознания. Специалисты ведут споры о том, возможно ли вообще самосознание у цифровой системы. Хинтон считается пионером в создании и проектировании «нейронных сетей», то есть инфраструктуры программирования, которая наделяет компьютеры способностью осваивать новые навыки и формы анализа. Теперь эти сети уже используются во многих системах искусственного интеллекта. В 2018 году Хинтон с двумя соавторами даже получил за подобные разработки высшую награду в области вычислительной техники – премию Тьюринга (Turing Award).

Нынешние передовые системы искусственного интеллекта, по его словам, сильно отличаются от привычного всем нам программного обеспечения. «Я пришел к выводу, что тот тип интеллекта, который мы разрабатываем, слишком сильно отличается от человеческого, – тревожится ученый. – В отличие от биологических разумных существ, он может плодить множество одинаковых цифровых систем с одинаковыми моделями мира. Хотя каждая из них учится по отдельности, они все обретают свои знания, причем делятся ими мгновенно. Представьте себе, что где-то в мире вдруг возникла группа в 10 тысяч человек с невероятными способностями, и как только кто-то из них чему-то научился, это знание мгновенно и автоматически передается всем. Вот почему эти чат-боты уже знают намного больше, чем любой человек. Наихудший и даже кошмарный сценарий развития подобных роботов состоит в том, что они смогут вырабатывать свои собственные подцели в рамках поставленных человеком целей, и однажды поставят себе цель довести собственные мощности до максимума».

Другие исследователи также усматривают различные риски совершенствования систем ИИ в краткосрочной, среднесрочной и долгосрочной перспективе. Ближайший риск заключается в том, что роботы ИИ чрезвычайно убедительно лгут, то есть «легко вводят человека в заблуждение ложной информацией, искусно созданной средствами ИИ». К примеру, мошенники и злоумышленники могут с их помощью генерировать ложные телефонные вызовы голосами близких родственников, якобы попавших в тяжелую ситуацию и срочно нуждающихся в деньгах. А недавно даже папу римского Франциска выставили на посмешище с помощью ИИ. Робот сгенерировал ложную компьютерную фотографию понтифика в стильной белой пуховой куртке, этот снимок тут же стал вирусным в социальных сетях, причем очень многие приняли поддельное фото за реальное.

В среднесрочной перспективе многие также опасаются, что искусственный интеллект скоро успешно автоматизирует множество человеческих работ и тем самым породит эпидемию безработицы. Модераторы интернет-контента, юристы, личные помощники и переводчики первыми лишатся работы, прогнозирует один из ученых в интервью New York Times.

А долгосрочные опасности систем искусственного интеллекта – к примеру, выход роботов из-под контроля человека и даже объявление ими войны людям – давно уже стали предметом научной фантастики. Однако некоторые эксперты уже видят признаки подобных сценариев в «неожиданных отклонениях в поведении» нынешних систем ИИ. Если они однажды объединятся с другими интернет-сервисами и обретут такую мощь, что смогут писать собственные программы для преобразования самих себя, то ИИ может выйти из-под контроля и стать реальной опасностью.

Неудивительно, что и папа римский Франциск также не обошел вниманием пользу и риски ИИ. «Нынешняя наука и техника имеют практическую пользу и являются доказательством способности человека ответственно участвовать в творческом деянии Бога, – сказал папа на аудиенции в Ватикане 27 марта. – В этом плане, по моему убеждению, развитие искусственного интеллекта и машинного обучения потенциально может быть весьма позитивным для будущего человечества; мы не можем отмахнуться от этого. В то же время я уверен, что этот потенциал можно реализовать только в том случае, если разработчики этих технологий будут постоянно и последовательно действовать в предельно этичном и ответственном ключе».

Это заявление прозвучало на аудиенции в Ватикане для участников «Диалогов Минервы» (Minerva Dialogues) – собрания ученых, инженеров, ведущих бизнесменов, юристов, философов, католических теологов, специалистов по этике и членов Римской курии, интересующихся развитием цифровых технологий. Папа Римский призвал этих специалистов «сделать неотъемлемое достоинство каждого мужчины и женщины ключевым критерием» оценки новых технологий.

«Я приветствую инициативы по разработке и нормированию искусственного интеллекта, дабы он мог внести реальный вклад в улучшение мира, – подчеркнул понтифик на встрече. – Меня утешает тот факт, что многие люди, работающие над новыми технологиями, ставят во главу угла этику, общее благо и человеческую личность. Вместе с тем меня беспокоит, что цифровые технологии могут привести к увеличению неравенства в мире и сведут богатство человеческой личности к неким элементам, познаваемым технологическими средствами. Фундаментальная ценность человека не может быть измерена никакими данными. А потому лица, принимающие важные социальные и экономические решения, должны быть предельно осторожны в делегировании своих суждений алгоритмам и в обработке данных о характере личности и ее поведении. Мы не можем позволить алгоритмам ограничивать или обусловливать уважение к человеческому достоинству, а тем более отбрасывать сострадание, милосердие, прощение и, прежде всего, надежду на то, что люди способны измениться».

На ассамблее Папской академии жизни в 2020 году члены академии вместе с президентами IBM и Microsoft подписали призыв к этичному и ответственному использованию технологий искусственного интеллекта. В этом документе основное внимание уделяется этике алгоритмов и этичному использованию искусственного интеллекта «в соответствии с принципами прозрачности, инклюзивности, ответственности, беспристрастности, надежности, безопасности и конфиденциальности».

Между тем католическая церковь в Азии недавно применила ИИ для выработки обобщающего документа своего синода, по информации Vatican News, о чем напоминает ресурс Foxnews. Азиатская синодальная континентальная ассамблея прошла 24-26 февраля в Бангкоке (Таиланд) в рамках глобального синодального процесса. Ее итоги обсудят на Синоде по соборности в Риме в октябре. Она первой из ассамблей решилась использовать ИИ для обработки поправок и предложений участников.

Отец Кларенс Девадасс (Clarence Devadass), бывший консультант Дикастерии по межрелигиозному диалогу, рассказал, что процесс «шел в небольших группах, которые готовили ответы на вопросы рабочего документа». «Эти ответы сводились в анкеты Google Forms, – поведал отец Девадасс. – Затем сводные данные были обработаны программой искусственного интеллекта. Он выделял общие темы, характерные ответы конкретной группы и приоритеты данных. Затем наши эксперты проверяли результат работы ИИ на предмет неточностей. Могу заверить, что робот сделал за пару минут то, на что людям нужно пару часов. Система очень эффективна для сортировки данных по ключевым словам, хотя только человек способен улавливать и понимать чувства и настроения».

«Именно любовь порождает творчество, – с тревогой напоминает отец Джеффри Кирби (Jeffrey Kirby) из католической церкви Пресвятой Богородицы в Индиан-Лэнд, Южная Каролина, в интервью Fox News Digital. – Потому любая разработка искусственного интеллекта должна зависеть от человеческой личности. Величайшее достояние человеческой семьи – наша способность выстраивать отношения. Только любя и будучи любимыми, мы можем познать ценность и цель жизни. Именно любовь порождает творчество. ИИ может занимать свое ограниченное место в обществе, но всегда должен служить человеческой изобретательности и творчеству. Он не может узурпировать место, принадлежащее человеческому разуму и сердцу. Я считаю, что ИИ не место в синодальном процессе как способу «говорить сердцем сердцу».

«Вообще все искусственное противоположно подлинному, настоящему, – подчеркивает отец Кирби. – Как человеческие существа, мы живем в мире отношений, согретых любовью, надеждой, благодарностью и взаимопомощью. В истинных и значимых вещах человеческой жизни нет ничего искусственного. Библия учит нас, что мы созданы по образу и подобию Божьему, а не по схемам искусственного интеллекта. Мы не можем позволить ИИ украсть то, что принадлежит человеку.

Использование искусственного интеллекта в синодальном процессе – это смерть подлинности в этом процессе. Соборность означает реальные отношения живых людей. ИИ нет места в синодальном процессе».

Оцените эту новость: 
Голосов пока нет
По материалам: 
Категория: 

Другие новости категории

Последние публикации в изображениях