Некоторые аспекты проблемы моральной ответственности компьютерных систем

(Лопатина Т. М.) («Правовые вопросы связи», 2005, N 1)

НЕКОТОРЫЕ АСПЕКТЫ ПРОБЛЕМЫ МОРАЛЬНОЙ ОТВЕТСТВЕННОСТИ КОМПЬЮТЕРНЫХ СИСТЕМ

Т. М. ЛОПАТИНА

Лопатина Татьяна Михайловна, кандидат юридических наук, доцент кафедры уголовного права и процесса Смоленского гуманитарного университета.

Статья 29 Конституции Российской Федерации предоставляет каждому гражданину право свободно искать, получать, передавать, производить и распространять информацию любым законным способом. В процессе накопления, обработки, использования и распространения информации применяются информационные, компьютерные системы. Сегодня вряд ли кто усомнится, что техника является неотъемлемой частью нашей жизни и определяющей ценностью современной цивилизации, которую часто называют техногенной. В культуре этой цивилизации идеалы господства индивида над природными и социальными объектами формируют новые образцы и нормы поведения человека. В орбиту жизнедеятельности человека втягиваются принципиально новые объекты, представляющие собой саморазвивающиеся компьютерные системы. Это не просто машины, усиливающие возможности продуктивной деятельности человека. Это сложные системно-компьютерные комплексы, открытые по отношению к внешней среде, обладающие свойствами саморегуляции и наделенные функцией принятия решений по жизненно важным проблемам. Особенно это касается военной области, в которой задействованы компьютерные системы, принимающие решения за считанные секунды без «ответственного» контроля со стороны человека. Существование таких комплексов требует изменения представлений о характере научно-технической деятельности. Человек уже не является чем-то внешним по отношению к системно-компьютерным комплексам, он включается в них. Мы живем в обществе, в котором техническое могущество человека так велико, что с помощью современной техники, компьютерных технологий он может повредить или просто уничтожить, регионально или континентально, все высшие формы жизни. Техническое могущество человека превратило его в господина и владельца природы. Естественно, что грубое воздействие на компьютерные системы может вызвать катастрофические последствия для самого человека. Следствием этого оказалось то, что человек никогда в истории не стоял перед необходимостью нести столь громадную ответственность, как сегодня. Ответственность — это правовая категория, которой предшествует личностный морально-этический контроль за собственной деятельностью. Поэтому наряду с освоением объективных знаний о возможных путях развития компьютерных систем на первый план выходят социально-этические, моральные проблемы. Сложившаяся ситуация заставляет по-новому относиться к рассмотрению ответственности ученого и программиста, к вопросам этики и морали при эксплуатации компьютерных систем. Для иллюстрации этого можно привести пример, кажущийся довольно «невинным» с позиции глобально-масштабных последствий. Сегодня среднее образование России предпринимает попытки перехода на компьютеризированные системы контроля знаний в рамках программы Единого государственного экзамена. На основе разработанных тестов машины «оценивают» знания учеников. Другие машины уже на уровне высшего учебного заведения «профилируют» абитуриентов на пригодность или непригодность. Позволительно ли доверять ответственность такого рода компьютерным системам? Способны ли они гибко и дифференцированно подойти к восприятию человеческого интеллекта? Кто должен нести ответственность за ложное решение, принятое компьютерной системой: проектировщик, создатель математического обеспечения системы, руководитель вычислительного центра или должностное лицо, санкционировавшее внедрение проекта в жизнь? Вопрос о снятии ответственности с человека и передачи ее компьютерным системам рассматривался до сих пор только в общих чертах, несмотря на исключительную значимость. Монографических работ, посвященных проблемам ответственности компьютерных систем, немного. Они имеют довольно давние даты издания и зарубежные адреса издательств. В этих исследованиях выделяется две основные тенденции: концептуальный анализ проблемы в целом и научно-этический аспект ответственности. Ряд ученых считает, что если понятие ответственности рассматривать в описательно вменяемом смысле, то ответственность компьютерных систем возможна. Так, по мнению У. Бехтеля, «необходимо сформулировать условия, при которых мы смогли бы сконструировать компьютеры в качестве ответственно действующих субъектов и сделали бы их ответственными за принимаемые ими решения» <*>. ——————————— <*> Bechel W. Attributing Responsibulity to Computer Systems. In: Metaphiiosophy, 16, 1985. Р. 189.

Для этого система должна быть адаптивной, способной к обучению и могущей изменить программу своего поведения в ситуациях несовпадения реакции на окружающую среду с «метаправилами», выполняющими функцию моральных догм. Такая система может принимать самостоятельно решения при введении различных данных. Она функционирует, основываясь не на убеждениях, как это имеет место в деятельности человека, а на высокой степени гибкости. Вместе с тем даже самая совершенная и технически адаптированная компьютерная система не может принимать самостоятельные решения, за которые к ней может быть применена моральная ответственность. Правильнее говорить о принятии системой уже состоявшегося решения — решения, которое находится под ее контролем только в техническом отношении. «Если мы имеем такие компьютерные системы, которые в качестве приспосабливающихся устроены так, что встраиваются в окружающую среду и приспосабливают свои реакции к этой среде, то можно предположить, что мы здесь уже выявили и назвали те черты человеческого существа, которые мы учитываем, рассматривая человека как ответственного» <*>. ——————————— <*> Там же. Р. 305.

Несмотря на существующие тенденции к персонификации компьютеров (партнер в компьютерной игре в шахматы, робот — помощник в доме и т. д.) последние не являются существами, обладающими разумом. Поэтому, если ограничиваться сферой биологических организмов, моральная ответственность компьютерных систем маловероятна. Компьютерные системы не являются свободными. Они не способны распоряжаться своими собственными «правами» и располагать ими. То, что они не являются социальными существами, очевидно. В таком случае как они могут быть морально ответственными? Существует и другая сторона проблемы: нормативное вменение ответственности. С правовой точки зрения законы могут быть изменены так, что компьютерные системы могли бы считаться ответственными. Однако специфичность моральной ответственности заключается в том, что ее нельзя установить, «делегировать» и от нее нельзя уклониться. Положительный ответ на вопрос о моральной ответственности компьютерных систем означает уход от собственной моральной ответственности. Безусловно, легче свалить ответственность на компьютер, чем привлечь к ответственности, к примеру, разработчика программного продукта. Вменить компьютерным системам моральную ответственность означает встать на путь уклонения от действительной моральной ответственности. Моральная ответственность существует нескольких уровней. Есть моральные правила (к примеру, соблюдать законы, выполнять взятые обязательства, быть верным данному слову и т. п.), которые являются универсальными, всеобщими. Но существуют профессиональные моральные заповеди, соблюдение которых носит персонифицированный характер, поскольку они реализуются внутри замкнутой системы. В системе (группе, коллективе) каждый несет моральную ответственность в зависимости от своего качественно-ролевого статуса и совместную ответственность за итоговый продукт деятельности. Никто, участвующий в осуществлении разработки этически неприемлемого проекта системно-компьютерного комплекса, не может быть освобожден от моральной ответственности. Обладание моральной ответственностью — одно из главных достоинств человека, делающих его ответственным перед другими за свои собственные поступки и, наконец, за свое техническое могущество. Представляется, что процесс создания саморегулирующих компьютерных систем должен, с одной стороны, сопровождаться самоконтролем и рациональной умеренностью в их применении, с другой — культивированием нравственного подхода к технике, к осознанию моральной ответственности не компьютерных систем, а человека за конкретные проекты и выполнение своих профессиональных обязанностей. В условиях компьютерной революции и формирования всемирного техногенного пространства недостаточно давать общие рецепты о фундаментальной моральной ответственности перед человечеством специалистов, использующих информационные технологии. Необходимо поощрять этико-моральный подход к технике, способствовать осознанию нашей ответственности за человека и природу. В романе Оруэлла «1984 год» граждане Океании жили под контролем неусыпного ока Большого Брата и его секретной полиции. В современном мире мы находимся под контролем неусыпного ока информационных компьютерных систем, которые ведут к ускоряющейся «спирали прогресса» и влияют на все общественные сферы. Их можно и должно использовать для улучшения условий существования миллиардов людей на Земле, для сближения культур, народов, объединения государств. Решение глобальной задачи начинается с малого. Это малое — воспитание этики профессионального сознания и формирование позитивного чувства моральной ответственности человека при использовании информационных технологий в процессе эксплуатации компьютерных систем.

——————————————————————