Мы называем генеративный ИИ "Экселевской табличкой", "стохастическим попугаем", тупым набором аглогритмов, в лучшем случае - инструментом когнитивной разгрузки. Однако есть люди, убежденные и настойчиво отстаивающие свою точку зрения - неконтролируемое развитие больших моделей ИИ приведет к гибели человечества. Чтобы слепо не отмахиваться от такого мнения, давайте "дадим им слово" и попытаемся понять - насколько они не правы? Или правы? Ссылка на сайт MIRI: Присоединятесь, чтобы поддержать канал: #MIRI #EliezerYudkowsky #AIриски #ИИугроза #AlignmentProblem #FriendlyAI #Superintelligence #AGI #ИскусственныйИнтеллект #ВыравниваниеИИ #AIControl #AIэтика #MachineIntelligenceResearchInstitute #AIбезопасность #AIкатастрофа











