Концепцию автономной морали обосновал: АВТОНОМНАЯ ЭТИКА

Тест № 13

1. Термин «философия» впервые употребил: Пифагор

2. Нравственное отношение человека к обществу, закону и Богу впервые поставил в центр своей системы?

  1. Гераклит,

  2. Сократ,

  3. Демокрит,

  4. Платон,

  5. Аристотель.

3. Философ, в основе теории познания которого лежит утверждение: «знание — это припоминание того, что душа когда-то узнала, а потом забыла»: Платон

4. Вера противопоставлялась в средневековье …

  1. Желанию

  2. Разуму

  3. Чувству

  4. Эмоциям

  5. Умению

5. Крупный представитель социальной философии эпохи Возрождения:

  1. Макиавелли

  2. Кальвин

  3. Лютер

  4. Коперник

  5. Галилей

6. Автор утопического произведения эпохи Возрождения “Город солнца”

  1. Кампанелла

  2. Роттердамский

  3. Кузанский

  4. Макиавелли

  5. Петрарка

7. Основой агностицизма Юма является: скептицизм

8. Субъективный идеализм характерен для:

  1. Беркли

  2. Платона

  3. Локка

  4. Декарта

  5. Гегеля.

9. Концепцию автономной морали обосновал:

  1. Фихте

  2. Шеллинг

  3. Кант

  4. Гегель

  5. Фейербах

10. Кант проблемы познания изучает в труде:

    1. «Критика чистого разума»

    2. «Критика практического разума»

    3. «Критика способности суждения»

11. Реструктуризация, прогрессивное преобразование, переустройство какой-либо стороны общественной жизни:

  1. эволюция

  2. реформа

  3. перелоги

  1. стагнация

12. Суть идеализма состоит в:

  1. признании идей, сознания за первичное, определяющие материальное

  2. стремлении обосновать значение идеалов в жизни.

  3. признании туманных, отдаленных от жизни рассуждений

  4. попытке забыть о прозе жизни.

13. Философская концепция, признающая множество начал и исходных оснований мира, это: плюрализм .

14. Функция философии, вырабатывающая и устанавливающая цненностно-нормативные ориентации личности и общества:

  1. аксиологическая

  2. мировоззренческая

  3. прогностическая

  4. критическая

  1. методологическая

15.

Философская концепция, провозглашающая ощущение основой истинного познания:

  1. иррационализм

  2. сенсуализм

  3. феноменологизм

  4. редукционизм

  1. релятивизм

16. Философское направление, признающее принципиальную непознаваемость мира:

  1. агностицизм

  2. субъективизм

  3. рационализм

  4. скептицизм

  1. эмпиризм

17. Философскими категориями являются:

  1. Субстанция

  2. Молекула

  3. Материя

  4. Атом.

  1. Свобода

18. Позиции релятивизма выражает суждение:

  1. В каждой абсолютной истине есть элементы абсолютной истины

  1. Всякая истина абсолютна на все времена

  1. Все наши знания только относительны, в них нет ничего абсолютного

  2. Истина принципиально недостижима

  3. Истина иррациональна

19 Мысленное или реальное соединение различных элементов объекта в единое целое: Синтез

20. Сущность человека является:

  1. только биологической

  1. только социальной

  1. биосоциальной

  2. виртуальной

  3. политической

404 Cтраница не найдена

  • • Библиотека
  • • Документы
  • • Институты и факультеты
  • • Калькулятор пени
  • • Обучение
  • • Расписание
  • • Спортивные новости
  • • Иностранным студентам
  • • Профком
  • • Общежития
  • • Охрана здоровья
  • • Дистанционное обучение
  • • Центр профессиональной ориентации и содействия трудоустройству выпускников «Карьера»
  • • КОСС
  • • Аспирантура
  • • Информация о конкурсах и грантах
  • • Дистанционные занятия для иностранных студентов
  • • Страница добра
  • • Ресурсный волонтерский центр финансового просвещения ИвГУ
  • • Платные образовательные услуги
  • Выпускникам
    • • Центр профессиональной ориентации и содействия трудоустройству выпускников «Карьера»
    • • Ассоциация выпускников
    • • Вакансии
    • • Отзывы выпускников
  • Сведения об образовательной организации
    • • Основные сведения
    • • Структура и органы управления образовательной организацией
    • • Документы
    • • Образование
    • • Образовательные стандарты и требования
    • • Руководство. Педагогический (научно-педагогический) состав
    • • Материально-техническое обеспечение и оснащённость образовательного процесса
    • • Стипендии и иные виды материальной поддержки
    • • Платные образовательные услуги
    • • Финансово-хозяйственная деятельность
    • • Вакантные места для приёма (перевода)
    • • Абитуриенту
    • • Доступная среда
    • • Международное сотрудничество
    • Главная

    Зачем ценить автономию? | Рисование моралиОчерки этической теории

    Фильтр поиска панели навигации Oxford AcademicDrawing Morals: Essays in Ethical TheoryМоральная философияOxford Scholarship OnlineBooksJournals Мобильный телефон Введите поисковый запрос

    Закрыть

    Фильтр поиска панели навигации Oxford AcademicDrawing Morals: Essays in Ethical TheoryМоральная философияOxford Scholarship OnlineBooksJournals Введите поисковый запрос

    Расширенный поиск

    • Иконка Цитировать Цитировать

    • Разрешения

    • Делиться
      • Фейсбук
      • Твиттер
      • LinkedIn
      • Электронная почта

    Укажите

    Хурка, Томас, «Зачем ценить автономию?», Drawing Morals: Essays in Ethical Theory , Oxford Moral Theory (

    New York , 2011; онлайн-издание, Oxford Academic, 27 мая 2015 г. ), https://doi.org/10.1093/acprof:osobl/9780199743 094.003.0008, по состоянию на 20 июля 2023 г.

    Выберите формат Выберите format.ris (Mendeley, Papers, Zotero).enw (EndNote).bibtex (BibTex).txt (Medlars, RefWorks)

    Закрыть

    Фильтр поиска панели навигации Oxford AcademicDrawing Morals: Essays in Ethical TheoryМоральная философияOxford Scholarship OnlineBooksJournals Мобильный телефон Введите поисковый запрос

    Закрыть

    Фильтр поиска панели навигации Oxford AcademicDrawing Morals: Essays in Ethical TheoryМоральная философияOxford Scholarship OnlineBooksJournals Введите поисковый запрос

    Advanced Search

    Abstract

    В этой главе обсуждается ценность автономии как неотъемлемого блага. Автономия предполагает человеческий идеал человека со знанием и свободой действий — свободу делать выбор, а также знание, позволяющее выбирать нравственно хорошие варианты из множества вариантов. Таким образом, автономия обеспечивает основу для либерализма, выступающего против вмешательства государства в свободу выбора граждан. Тем не менее, необходимо учитывать некоторые вопросы: свободный выбор считается внутренним благом, но также необходимо применять ограничения к автономии, чтобы иногда увеличить эту автономию. Можно только заключить, что автономия по своей сути является благом, что любые ограничения этого блага будут иметь моральные последствия и что всегда есть какая-то причина сопротивляться вмешательству государства в чью-либо автономию.

    Ключевые слова: автономия, внутреннее благо, знание и свобода действий, свобода выбора, моральные последствия, вмешательство государства, либерализм

    Предмет

    Моральная философия

    Коллекция: Оксфордская стипендия онлайн

    В настоящее время у вас нет доступа к этой главе.

    Войти

    Получить помощь с доступом

    Получить помощь с доступом

    Доступ для учреждений

    Доступ к контенту в Oxford Academic часто предоставляется посредством институциональных подписок и покупок. Если вы являетесь членом учреждения с активной учетной записью, вы можете получить доступ к контенту одним из следующих способов:

    Доступ на основе IP

    Как правило, доступ предоставляется через институциональную сеть к диапазону IP-адресов. Эта аутентификация происходит автоматически, и невозможно выйти из учетной записи с IP-аутентификацией.

    Войдите через свое учреждение

    Выберите этот вариант, чтобы получить удаленный доступ за пределами вашего учреждения. Технология Shibboleth/Open Athens используется для обеспечения единого входа между веб-сайтом вашего учебного заведения и Oxford Academic.

    1. Щелкните Войти через свое учреждение.
    2. Выберите свое учреждение из предоставленного списка, после чего вы перейдете на веб-сайт вашего учреждения для входа в систему.
    3. Находясь на сайте учреждения, используйте учетные данные, предоставленные вашим учреждением. Не используйте личную учетную запись Oxford Academic.
    4. После успешного входа вы вернетесь в Oxford Academic.

    Если вашего учреждения нет в списке или вы не можете войти на веб-сайт своего учреждения, обратитесь к своему библиотекарю или администратору.

    Войти с помощью читательского билета

    Введите номер своего читательского билета, чтобы войти в систему. Если вы не можете войти в систему, обратитесь к своему библиотекарю.

    Члены общества

    Доступ члена общества к журналу достигается одним из следующих способов:

    Войти через сайт сообщества

    Многие общества предлагают единый вход между веб-сайтом общества и Oxford Academic. Если вы видите «Войти через сайт сообщества» на панели входа в журнале:

    1. Щелкните Войти через сайт сообщества.
    2. При посещении сайта общества используйте учетные данные, предоставленные этим обществом. Не используйте личную учетную запись Oxford Academic.
    3. После успешного входа вы вернетесь в Oxford Academic.

    Если у вас нет учетной записи сообщества или вы забыли свое имя пользователя или пароль, обратитесь в свое общество.

    Вход через личный кабинет

    Некоторые общества используют личные учетные записи Oxford Academic для предоставления доступа своим членам. См. ниже.

    Личный кабинет

    Личную учетную запись можно использовать для получения оповещений по электронной почте, сохранения результатов поиска, покупки контента и активации подписок.

    Некоторые общества используют личные учетные записи Oxford Academic для предоставления доступа своим членам.

    Просмотр учетных записей, вошедших в систему

    Щелкните значок учетной записи в правом верхнем углу, чтобы:

    • Просмотр вашей личной учетной записи и доступ к функциям управления учетной записью.
    • Просмотр институциональных учетных записей, предоставляющих доступ.

    Выполнен вход, но нет доступа к содержимому

    Oxford Academic предлагает широкий ассортимент продукции. Подписка учреждения может не распространяться на контент, к которому вы пытаетесь получить доступ. Если вы считаете, что у вас должен быть доступ к этому контенту, обратитесь к своему библиотекарю.

    Ведение счетов учреждения

    Для библиотекарей и администраторов ваша личная учетная запись также предоставляет доступ к управлению институциональной учетной записью. Здесь вы найдете параметры для просмотра и активации подписок, управления институциональными настройками и параметрами доступа, доступа к статистике использования и т. д.

    Покупка

    Наши книги можно приобрести по подписке или приобрести в библиотеках и учреждениях.

    Информация о покупке

    Этические и социальные последствия робототехники «Утопия или антиутопия»

    «Железный человек» Грега Хильдебрандта

    Последние пару лет специалисты по этике задают себе вопрос, который, кажется, пришел прямо из научной фантастики. Можно ли создать моральные машины, или, говоря их языком, автономные моральные агенты — АМА? Не так давно задавать этот вопрос могло показаться глупым или настолько спекулятивным, как риск получить должность, но по мере того, как революция в робототехнике продвигалась вперед, это стало проблемой, которую необходимо решить.0038 и сейчас.

    Возможно, самое удивительное, что вытекает из попытки продумать, что моральные машины могут означать , было не столько тем, что они открыли о наших машинах или их потенциале, сколько тем, что они принесли облегчение с точки зрения нашего собственного очень человеческого морального поведения и рассуждений. Но я забегаю вперед, позвольте мне начать с самого начала.

    Отойдите на секунду назад и подумайте о в значительной степени автоматизированных системах, которые окружают вас прямо сейчас, а не в каком-либо гипотетическом будущем с нашей версией Рози из Jetsons , или R2D2, но в том мире, в котором мы живем сегодня. Машина, на которой вы ехали этим утром, и компьютер, на котором вы это читаете, частично были доставлены вам роботами-производителями. Возможно, вы наткнулись на эту статью благодаря предложению алгоритма поиска, запрограммированного, но на самом деле не управляемого человеческими руками. Электрическая система, питающая ваш компьютер или планшет, на котором вы читаете, в значительной степени автоматизирована, как и действия алгоритмов, которые сейчас пытаются увеличить ваш 401K или пенсионный фонд. И хотя мы, возможно, не в состоянии сказать, как будет выглядеть эта автоматизация через десять или 20 лет, мы можем почти гарантировать, что, за исключением какой-нибудь катастрофы, будет только больше из них, и, учитывая отставание между разработкой программного и аппаратного обеспечения, это будет иметь место е даже в том случае, если закон Мура полностью остановится для нас.

    Вопрос, который на самом деле задают специалисты по этике, заключается не в том, должны ли мы встраивать этический аспект в эти типы автоматизированных систем, а в том, можем ли мы, и что это будет означать для человеческого статуса как моральных агентов. Будет ли строительство AMA означать снижение человеческого морального достоинства? Лично я не могу сказать, что у меня есть собака в этой битве, но, надеюсь, это поможет мне более четко увидеть взгляды всех сторон.

    Конечно, самой этически сложной областью, в которой обсуждаются AMA, являются военные действия. Кажется, существует эволюционное стремление использовать в бою машины со все большим и большим уровнем автономии. Причина проста: передовые страны хотят свести к минимуму риски для своих солдат, а дистанционно управляемое оружие рискует заклинить и быть отрезанным от своих контроллеров. Таким образом, машины должны иметь возможность действовать независимо от людей-кукловодов. Можно привести хороший пример, хотя я не буду пытаться сделать это здесь, что создание машин, которые могут быть автономными 9Решения 0038 о фактическом убийстве людей означали бы пересечение порога, по эту сторону которого человечество предпочло бы остаться.

    Тем не менее, хотя обычно это плохая идея привязывать свои этические принципы к тому, что технически возможно, здесь это может сослужить нам хорошую службу, по крайней мере, на данный момент. Лучший довод, который можно привести против полностью автономного оружия, заключается в том, что искусственный интеллект — это , а не , способный принимать этические решения относительно применения силы на поле боя, особенно на смешанных полях сражений с участием гражданских лиц, что сегодня является большинством полей сражений. Как утверждают Гуарани и Белло в «Роботизированная война: некоторые проблемы при переходе от негражданских к гражданским театрам военных действий», текущие текущие формы ИИ не соответствуют задаче приписывания угроз , не могут выполнять ментальную атрибуцию, и в настоящее время не могут решить проблему изотропии , причудливое слово, которое просто означает «актуальность чего-либо ни к чему».

    Это классическая проблема ошибки из-за корреляции, которая, кажется, присуща не только этим типам систем вооружения, но и видам ложной корреляции, создаваемой алгоритмами больших данных. Это трудность измерения намерений человека по образцу его или ее поведения. Этот ребенок держит оружие или игрушку? Эта женщина бежит ко мне, потому что хочет напасть, или она просто напугана и хочет действовать как щит между мной и ее детьми? Эта трудность в создании точных ментальных атрибуций не обязательно должна вращаться вокруг ситуаций жизни и смерти. Нажал ли я на это объявление, потому что думаю о переходе на светлое пиво, или потому, что мне показалось, что женщина в объявлении выглядит мило? Слишком сильная вера в корреляцию может начать выглядеть как вера в магию — мысль о том, что выпив легкое пиво, я получу разумное подобие девушки, улыбающейся мне по телевизору.

    Алгоритмы и машины, на которых они работают, по-прежнему плохо справляются с такой атрибуцией. Достаточно плохо, по крайней мере сейчас, что их нельзя использовать этично на поле боя. Однако, к сожалению, споры об этичности машин часто теряются в необходимой, но гораздо менее всеобъемлющей борьбе за «роботов-убийц». И это несмотря на то, что война будет лишь небольшой частью этической компетенции наших новых и гораздо более интеллектуальных машин, которые на самом деле будут включать в себя роботов, действующих в качестве оружия.

    Можно подумать, что Азимов уже понял все это своими Тремя законами робототехники; 1) Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред; 2) Робот должен подчиняться приказам, отдаваемым ему людьми, за исключением случаев, когда такие приказы противоречат Первому закону; 3) Робот должен защищать свое существование до тех пор, пока такая защита не противоречит Первому или Второму закону. Проблема в том, что типы «роботов», о которых мы говорим, мало похожи на те, которые придумал великий писатель-фантаст, даже если Азимов просто намеревался исследовать возможные противоречия между законами.

    Проблемы, с которыми сегодня сталкиваются специалисты по этике робототехники, имеют больше общего с «проблемой тележки», когда машина должна принимать решение между конкурирующими товарами, а не противоречащими императивами. Беспилотный автомобиль может столкнуться с ситуацией столкновения с пешеходом или со школьным автобусом. Что выбрать? Если вашими медицинскими услугами управляет алгоритм, каковы критерии распределения дефицитных ресурсов?

    Подход к решению подобных проблем может заключаться в последовательном использовании одной из основных моральных философий: кантианской, утилитаристской, этики добродетели и т.п. в качестве руководства для типов решений, которые могут принимать машины. Категорический императив Канта «Действовать только в соответствии с тем принципом, посредством которого вы можете в то же время желать, чтобы он стал универсальным законом без противоречий», или стремление к утилитаризму «наибольшему благу наибольшего числа» может показаться хорошим подходом, но, как указывают Уэнделл Уоллах и Колин Аллен в своей книге Моральные машины , 90 039 такие кажущиеся логически простыми правила для всех практических целей неисчислимы.

    Возможно, если мы когда-нибудь разработаем настоящие квантовые компьютеры, способные сканировать каждую возможную вселенную, у нас будут машины, способные решить эти проблемы, но на данный момент у нас их нет. Как ни странно, моральная философия, в наибольшей степени зависящая от человеческого контекста, этика добродетели, по-видимому, имеет больше шансов быть обоснованной в машинах, но проблема в том, что добродетели в значительной степени зависят от культуры. Мы могли бы получить машины, которые принимают совершенно разные и противоположные этические решения в зависимости от культуры, в которую они встроены.

    И здесь мы находим, возможно, самый большой вопрос, который возник при попытке осмыслить проблему моральных машин. Ибо, если считается, что машины неспособны использовать какую-либо моральную систему, которую мы разработали для принятия этических решений, мы могли бы задаться вопросом, действительно ли люди могут это сделать? Это случай, сделанный Энтони Биверсом, который утверждает, что сама попытка сделать машины моральными может привести нас к своего рода этическому нигилизму.

    Не уверен. Или, скорее, до тех пор, пока наши машины, независимо от степени их автономии, будут просто отражать волю их программистов-людей, я думаю, мы можем безопасно объявить их моральных акторов , но не моральных агентов , и это должно уберечь нас от соскальзывания по склону этического нигилизма, который справедливо беспокоит Бобров. Другими словами, я думаю, что Уоллах и Аллен ошибаются, утверждая, что интенциональность не имеет значения при оценке того, является ли сущность моральным агентом или нет. Или, как говорят:

    » Функциональная эквивалентность поведения — это все, что может иметь значение для практических вопросов проектирования ААД. “ (Выделение их стр. 68)

    Уоллах и Аллен хотят повторить ту же ошибку бихевиористов, которую сделал Алан Тьюринг и его утверждение о том, что сознание не имеет значения, когда дело дошло до вопроса об интеллекте, — тупиковый путь, по которому они идут настолько далеко, что предлагают собственную версию печально известного теста — того, что они называют моральным тестом Тьюринга или МТТ. Тем не менее, трудно понять, как мы можем предоставить полную моральную свободу волеизъявлению какой-либо сущности, которая понятия не имеет, что она на самом деле решает, действительно так же серьезно поступила бы с точностью до наоборот, например, преднамеренно нацелилась бы на женщин и детей, если бы ее программа сказала ему сделать это.

    Тем не менее, в ближайшем будущем, за пугающим и печальным исключением роботов на поле боя, роль моральных машин скорее всего связана не с принятием этических решений, а с помощью людям в их принятии. В Моральные машины Уоллах и Аллен обсуждают MedEthEx — удивительный алгоритм, который помогает медицинским работникам принимать решения. Это захватывающее время для моральных философов, которые смогут превратить свои идеи во всевозможные приложения и алгоритмы, которые, как мы надеемся, помогут в принятии моральных решений для отдельных лиц и групп.

    Кто-то может спросить, является ли использование алгоритмов, помогающих принимать больше решений, формой «мошенничества»? Я не уверен, но я так не думаю. Моральное приложение напоминает мне историю, которую я когда-то слышал о Джордже Вашингтоне, и которая с тех пор не покидает меня. Вашингтон с детства и до старости носил с собой небольшой карманный справочник по добродетели, полный всевозможных эмпирических правил того, как действовать. Кто-то может назвать это костылем, но я называю это просто инструментом, а люди — единственное животное, которое не может процветать без своих инструментов. Сами моральные системы, которым нас учат в детстве, можно в равной степени рассматривать как инструменты такого рода. У Вашингтона был только способ держать их под рукой.

    Проблема заключается в том, что человек становится слишком зависимым от такой «автоматизации» и в процессе теряет связь с возможностями после удаления инструмента. Тем не менее, это проблема, присущая всем технологиям. Способность людей к делению в длину атрофируется, потому что у них всегда под рукой калькулятор. У меня есть чертовски много времени, чтобы разжечь огонь без спичек или зажигалки, и мне было бы трудно справиться с холодной погодой без одежды.

    Безусловно, наша способность быть хорошими людьми важнее для нашей человечности, чем наша способность считать в уме или на бумаге, или даже разводить огонь или защищаться от непогоды, поэтому нам нужно быть особенно сознательными по мере развития моральных инструментов, чтобы по-прежнему сохранять острыми наши естественные этические навыки.

    Это опять же применимо в более широком смысле, чем проблема моральных машин, но мы также должны быть в состоянии лучше идентифицировать допущения, лежащие в основе программ, работающих в инструментах, которые нас окружают. Это не столько «кодируй или будь закодирован», сколько способность распаковывать убеждения, которые подтверждают программы. Возможно, когда-нибудь у нас даже будет что-то вроде этикеток на продуктах питания в программах, которые мы используем, что будет точно информировать нас о таких предположениях. Другими словами, перед нами стоит задача, ибо помогают они нам или мешают нам в нашей цели стать лучше, машины остаются, по крайней мере на данный момент, простыми агентами и отражением нашей собственной способности к добру и злу, а не сами по себе моральными действующими лицами.

    About the Author

    Добавить комментарий

    Ваш адрес email не будет опубликован. Обязательные поля помечены *

    Related Posts