Анатолий Юркин

РЫЖАЯ НЕФЕРТИТИ

    «Распознавание всегда ошибка, всегда угроза» (2014)

  1. В 2012 году третьим изданием вышла книга британца Adrian Hopgood под названием Intelligent Systems for Engineers and Scientists (Third Edition). По этому поводу хотелось бы озвучить несколько мыслей. Это заметки гуманитария, которого тревожит движение огромных массивов информации не в ту сторону, не туда...

  2. Скорость развития информационного общества сопровождается «утяжелением» социальной проблематики темы artificial intelligence (ИИ). Скорость развития информационного общества обратно пропорциональна объемам социальной проблематики темы искусственного интеллекта (ИИ, точнее бы - рукотворного интеллекта). Чем выше скорость, тем шире социальная сфера, тем злободневнее социальные последствия использования ИИ.

  3. Здесь я приведу пример «умной системы» с автоматическим включением света в подъезде. Как на это посмотрел бы доисторический человек? Он воспринял бы это магией.

  4. Но ещё совсем недавно технически нельзя было научить автомат отличать кошку от человека. С точки зрения системы наук, называемой ИИ, не надо включать свет для кошки, но нужно освещения для собаки. Система распознавания ещё не ИИ.

  5. Мы на первом подступе к теме «умный свет» в «умном доме».

  6. Как решить вопрос автоматического включения света? Система распознавания, установленная в подъезде, не будет зажигать свет тогда, когда в подъезд войдёт тот, кого система расценит как квартирного вора. Мы не дошли до столь высокого уровня прогресса с повсеместной установкой таких систем. Такой системы нет в вашем подъезде. Мы говорим о потребностях. Человечество испытывает потребность в возвращении ИИ.

  7. Уместно бы задаться следующим (по уровню сложности) вопросом, а как система отличит безобидного гостя дома и квартирного вора? Глупо тратить деньги на «умный свет» в «умном доме», если «умный дом» не защищён от угроз. Здравый смысл подсказывает, что систему отказа в допуске внутрь дома можно и нужно «прикрутить» к технологии «умный свет». Ибо...

  8. «Умён» ли тот «умный свет», «умён» ли тот «умный дом», если они впускают квартирного вора?..

  9. Узнав о существовании подобных новшеств, сообщество квартирных воров не самораспустится, а начнёт как-то реагировать, что-то менять в профессии. И это снова не ИИ. Это тема распознавания и классификации. Сложные программы распознавания и классификации придут на смены простым.

  10. О зачатках ИИ можно будет говорить лишь тогда, когда один из жильцов, возвращаясь с карнавала, войдёт в подъезд в костюме квартирного вора, с повадками квартирного вора, а система не позволит себя обмануть. Я говорю об игровом начале. Система должна быть настолько сложной, что когда возникнут игроки - квартирные воры, ищущие безвредный образ, или жильцы подъезда, переодевающиеся квартирными ворами, - система смогла бы ответить на ходы в игре с ещё непрописанными правилами.

  11. Опасность всегда «событие». Достаточно вести характеристики жильцов в базу данных с пометкой «не-событие». Но как отличить «событие» от «не-события» в тех случаях, когда люди будут совершать действия, вводящую систему в заблуждение? (Природа человеческой натуры такова, что подобные действия будут совершаться.

  12. На сегодняшний день для реакции на такого рода действия к самой сложной машине приставлен человек-оператор).

  13. Способность отличить «событие» от «не-события» - это одно. (Наверное, в языке «не-событие» будет дефективным «событием». Или наоборот. Это как в компьютерной игре. Простой игрок полагает, что дредноут, танк и пушка - это совсем разные юниты. Потому что представлены разными картинками.

  14. Программист знает, что пушка - это танк, лишенный функции передвижения. Танк - это пушка, способная двигаться по суше. Дредноут - это танк, с функцией передвижения только по воде. И т.п. Юниты пишутся одним кодом, но с единственным различным параметром).

  15. Способность отличить «событие» от «не-события» в условиях игры - это что-то другое. Игра, при которой «событие» выдаётся за «не-события», и наоборот - это что-то третье.

  16. Загримированный под жильца дома, квартирный вор хочет, чтобы система «ошиблась». И тут возникают почти философские вопросы. «Ошиблась» ли система, впустившая квартирного вора, загримированного под жильца дома? Нет, если система не предназначалась для реагирования на столь сложные «события».

  17. А в чём тут сложность? Ответ будет простым. Наивысшая сложность в работе системы (которая «не-человек») определяется ошибками и игрой.

  18. Система высшего порядка должна уметь работать с ошибками.

  19. Система высшего порядка должна уметь играть.

  20. И тут не обойтись без темы «само-обучения». Работа с ошибками - это инструмент «само-обучения» и «само-совершенствования». И вот главный вопрос - тема ИИ возникает там, где система распознавания будет наделена способностью самообучаться, самосовершенствоваться.

  21. Как? С какими последствиями? И как создать систему, способную адекватно реагировать на игру с непрописанными правилами?

  22. Этот набор вопросов ведёт к формированию базовых вопросов, а что такое ИИ?

  23. Ранее я говорил о том, что тема ИИ связана с проблемой создания симулятора театра, симулятора спектакля.

  24. Фактически нам предстоит от распознавания и классификации прийти к формированию модели поведения придирчивого зрителя. В чём суть теоретической модели придирчивого театрального зрителя? Ошибку любимого актёра придирчивый театральный зритель воспринимает как итоговое «событие» в творческой биографии исполнителя.

  25. Деньги будут потрачены зря, если «умное» автоматическое включение света в подъезде будет наделено «глазами» и «памятью» «театрального зрителя». Тогда как в сообществе квартирных воров найдётся криминальное дарование со способностями «театрального режиссёра». Получается, что система защиты подъезда должна быть, и «театральным зрителем», и «театральным режиссёром». Это я вас таким образом подвёл к доказательству неизбежности моей модели «ИИ как симулятор театра»...

  26. Пример с «театроведческим» финалом в решении казалось бы простой проблемы распознавания квартирного вора помогает понять проблему полезности систем, близких к ИИ. И трудного пути к ним.

  27. Ведь мы говорили о полезной системе, которая разрабатывается от обратного. Как было на самом деле? Как было в реальном мире?

  28. По дорогостоящему заказу от военных и спецслужб сперва разрабатывали систему, которая - реагируя на сигналы из внешней среды - тушила бы свет для безопасности. Например, при подходе человека со снайперской винтовкой или с включением электронного снайперского прицела. Со временем такая система при удешевлении проникла на потребительский рынок, где её использовили от обратного - включать свет, а не выключать.

  29. Не секрет, что подобным образом дорогие разработки для военных стали частью сегодняшних компьютерных игр. Так случилось с многогранником, который из секретных программ моделирования военных ситуаций, попал сперва в танковый симулятор Сида Мейера, а потом и в компьютерные игры с движением юнита по местности.

  30. Суть новой философии в том, что ошибка - это прото-код, это основа всего. Массив всех остальных «событий» не более чем изменение того или иного параметра в начальном коде ошибки. Отсюда остаётся в категории «простых игроков» тот, кто не принимает нового взгляда на ошибку. Тот, для кого в любой сфере мнимое единство «пушек» и «танков» останется непостижимой загадкой.

    «Быль-2003» (2014)

  31. Хочу рассказать историю, для которой у меня почти нет выразительных средств. Несмотря на мой диплом филолога и второе высшее гуманитарное образование. Несмотря на мой писательский опыт. Ибо, быль.

  32. Место действия - Петербургский офис РБК. Время - зима 2003 года. Даже я заметил странность в поведении одной из сотрудниц.

  33. Не помню, как её звали и в какой она была должности.

  34. В своё оправдание замечу - сотрудница имела сексапильную внешность.

  35. Молодая женщина «мяукала». В буквальном смысле. Сидит человек за компьютером, и вдруг на всё помещение:

    «Мяу!»
  36. Это было не простое, но коммуникативное «мяуканье».

  37. Главный редактор что-то спрашивала и чего-то требовала от сотрудницы. А та в ответ однотипно: «Мяу!» Громко. На весь офис. Не без вызова.

  38. Ей задают уточняющий вопрос. И снова: «Мяу!» Как театральный критик сразу скажу, что зимой 2003 года сотрудница Петербургского офиса РБК мяукала на разные интонации.

  39. Если учесть тот факт, что женщина была молода и имела сексапильную внешность, то в будни офиса вторгалось что-то постороннее... Что-то из драматургии Нины Садур...

  40. Я здесь не хочу сказать ничего плохого, ни про Петербургский офис РБК, ни про эту конкретную женщину. Мне казалось, что из той молодой женщины получилась бы прекрасная спутница для богатого мужчины... Интересно, а как сложилась её судьба в наше время?

  41. Какие коммуникативные и языковые деформации происходили в российском обществе, если в офисе крупнейшего информационного агентства в «культурной столице» человек неделю за неделей общался с начальством «мяуканьем»? Лучше не думать, не задумываться. Я подвожу к обобщению.

  42. На мой взгляд, сегодня масс-медийное и вообще информационное пространство России представлено «мяукающими трусами».

  43. Не знаю, как так получилось в масштабах державы?

  44. Не скажу, зачем так сделали?

  45. Очевидно, что из телеэфира и со страниц бумажных СМИ слышно одно «мяуканье». «Мяуканье» штатных сотрудников. С точки зрения технологии не понимаю, как звуки «мяукающих трусиков» можно будет представить победой в информационных войнах...

    Анатолий Юркин

    nice rectaurant 6.25.png

    «Инфографика юркинизма»

    23 мая 2014 года в ТВ-программе "Система ценностей" у Ирины Прохоровой на РБК с 16 минуты 46 секунды и до 16.53 доктор филологических наук, лингвист, профессор Гасан Гусейнов (1953) сказал:

    (В России) "Мы живём в ситуации, когда огромное количество людей... большинство населения ошибается в очень больших вопросах, (население России) живёт в состоянии ошибки. Это ошибка логическая, разумная... "

    В сжатом виде это высказывание выходца из Баку даётся бегущей строкой на 18.14 минуте.

    Любопытно, что Ирина Прохорова не услышала Гасана Гусейнова, грубо перебила его и завела разговор на тему общеизвестного. Было видно, что всю 17-ую минуту восточный человек Гасан Гусейнов по-восточному переживает невозможность досказать важную мысль.

    Это ещё один (!) пример того, как "Америки открываются" разными людьми в разное время.

    Я пропагандирую новый взгляд на феномен ошибки более 20 лет. Глупо ждать, что меня пригласят в передачу Ирины Прохоровой. Глупо ждать, что один из моих афоризмов про ошибки побежит строкой в инфографике на РБК... Но что-то происходит... Носители знания всё чаще отделяют себя от "большинства населения"...

    Афоризмы Анатолия Юркина

      "Энциклопедия - текст без эпитетов".

      "Википедия - информационный Солярис".

      "Талантливых людей в России больше, чем технологий, которые могли бы раскрыть их таланты".

      "Нет хуже и опаснее обывателя, чем обыватель в погонах офицера спецслужб".

      "Теория заговора - это массовая форма наукоподобного знания, единственно доступного толпе в период торжества философии нестабильности".

      "Правы ли те, кто считает Википедию удачной имитацией якобы не подверженной цензуре псевдонаучной речи?"

      "Википедия - блокнотная пародия на Британнику?"

      "Есть ли в Рунете хранилище рефератов, представленных в жанре устного пересказа?"

      "Без элемента игры инженерия знаний в таком масштабном проекте как Википедия оборачивается имитацией поведения энциклопедиста".

    Как работает Сетилопедия

      "Уоррен Маккалок (Warren Sturgis McCulloch) (16 ноября 1899 - 24 сентября1969), согласно Сетилопедии, американский нейропсихолог, нейрофизиолог, теоретик нейросетей и один из отцов кибернетики.

      Наряду с Грегори Бэйтсоном, Маргарет Мид и Лорернс К. Франк был активным участником первой группы кибернетиков «Проект человек-машина», неофициально созданной в ходе конференции в Нью-Йорке на тему «Встреча по церебральному заторможению» (Cerebral Inhibition Meeting) (1942). Почетный председатель всех десяти конференций, проходивших с 1946 по 1953 с участием членов группы кибернетиков (всего около 20 человек). Маккалок был профессором психиатрии и физиологии в университете штата Иллинойс и занимал ответственную должность в Исследовательской лаборатории электроники Массачусетского технологического института.

      Вместе с молодым исследователем Уолтером Питтсом заложил базу для последующего развития нейротехнологий. Его принципиально новые теоретические обоснования превратили язык психологии в конструктивное средство описания машины и машинного интеллекта. Одним из способов решения подобных задач было выбрано математическое моделирование человеческого мозга, для чего потребовалось разработать теорию деятельности головного мозга. Автор гипотезы (вместе с Питтсом), согласно которой нейроны упрощенно рассматривались устройством, оперирующим двоичными числами. Заслуга Маккалока и Питтса состоит в том, что их сеть из электронных "нейронов" теоретически могла выполнять числовые или логические операции любой сложности. Маккалок много лет занимался искусственным интеллектом и сумел найти общий язык с мировой общественностью в вопросе о том, каким образом машины могли бы применять понятия логики и абстракции в процессе самообучения и самосовершенствования. Специалист по гносеологическим проблемам искусственного интеллекта.

      Приоритет Маккалока подтверждается публикацией таких статей как A logical calculus of the ideas immanent in nervous activity (1943), но после разрыва с Н. Винером оказывается вне магистральных исследований кибернетики. При значительном вкладе в мировую науку сегодня Маккалок известен в меньшей степени по сравнению с Норбертом Винером, Артуро Розенблютом и Джулианом Бигелоу", - говорится в Лорибуке.

    Hosted by uCoz