- Популярные видео
- Авто
- Видео-блоги
- ДТП, аварии
- Для маленьких
- Еда, напитки
- Животные
- Закон и право
- Знаменитости
- Игры
- Искусство
- Комедии
- Красота, мода
- Кулинария, рецепты
- Люди
- Мото
- Музыка
- Мультфильмы
- Наука, технологии
- Новости
- Образование
- Политика
- Праздники
- Приколы
- Природа
- Происшествия
- Путешествия
- Развлечения
- Ржач
- Семья
- Сериалы
- Спорт
- Стиль жизни
- ТВ передачи
- Танцы
- Технологии
- Товары
- Ужасы
- Фильмы
- Шоу-бизнес
- Юмор
AI alignment — можно ли научить ИИ морали?
Стремительное развитие искусственного интеллекта в последние годы ставит перед человечеством множество фундаментальных вопросов. Один из ключевых — можем ли мы встроить в искусственный разум человеческие ценности? Иными словами, как осуществить alignment — выравнивание ИИ с человеком в рамках морали и ценностных ориентиров так, чтобы он действовал исключительно в наших интересах и не мог нанести вред даже в случае сбоя или непредвиденного сценария? Может ли этика защитить нас от экзистенциальной угрозы сверх разумного интеллекта?
Эту тему я обсудил с профессором философского факультета МГУ Вадимом Александровичем Чалым.
Таймкоды:
00:00 — Вступление
00:29 — Начало разговора
01:15 — Угрозы ИИ
02:30 — Что такое AI alignment problem?
05:07 — Чем ИИ опаснее человека?
09:40 — А есть ли выравнивание среди людей?
14:20 — Выравнивание и разные этические концепции
21:15 — Утилитаристский подход к проблеме
23:30 — Проблема вагонетки в реальной жизни
26:35 — Важные анонсы
27:28 — Проблема выравнивания нерешаема?
32:45 — Кант и оценка поступков ИИ?
39:09 — Снова про утилитаризм
42:20 — Страх перед ИИ вызван нечистой совестью?
47:31 — Что делать?
51:10 — Польза прогресса в ИИ для философии
55:15 — Заключение
🔹 Телеграм-канал Вадима Александровича Чалого: https://t.me/vadim8chaly
🔹 Ссылки на Пробел:
Telegram-канал: https://t.me/probelphilosophy
Twitter / X: https://x.com/glebprobel
Ридинг-клуб: https://t.me/probelphilosophy/221
💬 Поддержать выход новых видео и получить доступ к дополнительному контенту:
🔸 Boosty: https://boosty.to/probelphilosophy
🔸 Tribute: https://t.me/tribute/app?startapp=swtc
#философия #ИИ #искусственныйинтеллект #сознание #история #этика #мораль #Кант #политика #пробел #alignment
Видео AI alignment — можно ли научить ИИ морали? канала Пробел
Эту тему я обсудил с профессором философского факультета МГУ Вадимом Александровичем Чалым.
Таймкоды:
00:00 — Вступление
00:29 — Начало разговора
01:15 — Угрозы ИИ
02:30 — Что такое AI alignment problem?
05:07 — Чем ИИ опаснее человека?
09:40 — А есть ли выравнивание среди людей?
14:20 — Выравнивание и разные этические концепции
21:15 — Утилитаристский подход к проблеме
23:30 — Проблема вагонетки в реальной жизни
26:35 — Важные анонсы
27:28 — Проблема выравнивания нерешаема?
32:45 — Кант и оценка поступков ИИ?
39:09 — Снова про утилитаризм
42:20 — Страх перед ИИ вызван нечистой совестью?
47:31 — Что делать?
51:10 — Польза прогресса в ИИ для философии
55:15 — Заключение
🔹 Телеграм-канал Вадима Александровича Чалого: https://t.me/vadim8chaly
🔹 Ссылки на Пробел:
Telegram-канал: https://t.me/probelphilosophy
Twitter / X: https://x.com/glebprobel
Ридинг-клуб: https://t.me/probelphilosophy/221
💬 Поддержать выход новых видео и получить доступ к дополнительному контенту:
🔸 Boosty: https://boosty.to/probelphilosophy
🔸 Tribute: https://t.me/tribute/app?startapp=swtc
#философия #ИИ #искусственныйинтеллект #сознание #история #этика #мораль #Кант #политика #пробел #alignment
Видео AI alignment — можно ли научить ИИ морали? канала Пробел
Комментарии отсутствуют
Информация о видео
23 ч. 18 мин. назад
00:55:33
Другие видео канала






