Тут, между прочим, IBM нечто вроде зародыша ИИ сделала. И оно, по имени Watson, уже обыграло двух интеллектуальных чемпионов. Ваши прогнозы и комментарии?

GD Star Rating
loading...
Tagged with →  

168 Responses to IBM нечто вроде зародыша ИИ сделала

  1. 424:

    В настоящее время сервер по техническим причинам недоступен.
    Повторите попытку через несколько минут.

    не, до скайнета ещё далеко

  2. ььс007:

    а так — //science.compulenta.ru/594356/?

  3. Amzilc:

    Когда оно сменит имя на SkyNet начнем беспокоиться.

  4. 424:

    !!1 не очень впечатлило. Красиво синтезирует голос, быстро разбирает смысл несложных предложений.
    Всё остальное сводится к банальному data mining.
    И да, это шоу не для интеллектуалов, а для энциклопедистов, которые к уму имеют опосредованное отношение.

  5. Oiad:

    Я посмотрел передачу. Потенциал большой, но он сильно ограничен базой знаний(и это при том, что она такая большая). Часто когда не отвечает(а это очень часто), «в голове» у ватсона совсем странные несвязанные с вопросом ответы. Еще одна проблема — распознавание вопросов, которые не связаны с каким–то определением, цитатой или пропущенным словом в названии. На них он почти не отвечает, потому что видимо не знает где и что искать.

  6. ььс007:

    Прошу обратить внимание — некий юзер с чисто немецким ником поставил нам минус 🙂

  7. ььс007:

    тем не менее, это куда лучше чем то, что было ранее.

  8. Sdik_dni:

    !!1 проголодался, судя по нику

  9. M2yls:

    Да какой там ИИ, обычный Deep Blue, только не под шахматы заточенный.

    Я вот чего не понял — он таки понимает и разбирает голос, или ему дают вопросы в текстовом виде в ту же секунду, когда их показывают живым игрокам?

    В российских переводах везде пишут, что понимает голос, но вот в английском — что–то не совсем четкое.

  10. Ololos:

    Вообще в книге On intelligence довольно хорошо описаны минусы искусственного интеллекта и почему его сложно создать. и хорошая теория про работу мозга и неокортекса в частности

  11. LetsoroC:

    Серийный робот пылесос меня больше впечатляет, ибо автономен. (Я не видел как он работает) По сравнению с ним, Ватсон — беспомощное говно.
    Хотя всё равно, конечно, здорово.

  12. ььс007:

    всё голосом.

  13. Peels:

    В записи передачи Jeopardy, о которой идет речь, и которую можно просмотреть где–то на Ютюбе, ведущий четко говорит, что вопросы отсылаются в виде текстовых файлов.

  14. M2yls:

    О! Вот и я про это. Помню, что слышал на чистом английском языке!. Но вот во всех печатных изданиях (и даже тут на научной блоге) меня убеждают, что всё голосом.

    Кому же верить?

  15. M2yls:

    Вопрос, кстати, принципиальный.

    Распознавание тестовых файлов это одно. По сути никакого «распознавания» и нет вовсе. Компьютер оцифровывает печатные строки, и ищет совпадение точно таких же оцифрованных строк у себя в базе. Никакого ИИ — абсолютно механическая хрень.

    А вот распознавание голоса и сопоставление распознанного цифровому представлению сохраненного на винчестере — это уже настоящие зачатки ИИ.

  16. Peels:

    Это не Deep Blue, это принципиально другой алгоритм. Deep Blue был продвинутым солвером/переборщиком позиций. Watson это продвинутый текстовый поисковик.

    Это развитие в направлении Deep Blue –> Watson очень показательно по всей индустрии. Первые 50 лет ИИ пытались сделать, разрабатывая изысканные солверы и алгоритмы поиска в графах, коим является Deep Blue. Сейчас все забили на это дело, и активно пилят тупую статистику, чем и занимается Watson. Стоит заметить что по степени похожести на ИИ последний подход намного лучше, но оптимум скорее всего будет комбинацией двух направлений.

  17. LetsoroC:

    на телеконале вести24 однозначно говорили про текст. Мол еще у людей было преимущество — они понимали вопрос быстрее.

  18. M2yls:

    Ни тот ни другой подход даже близко к ИИ не подошли.
    Это всего лишь очень навороченный Синклер ZX, только с разогнанной частотой процессора.

    ИИ должен быть как минимум обучаем. САМОобучаем.

  19. Ololos:

    On intelligence чувак же пишет об этом! я говорю!

  20. LetsoroC:

    двачую

  21. Peels:

    Да ну чепуха, в принципе алгоритмы распознавания голоса на данный момент вполне способны распознать формулировку вопроса ведущего, если бы он аккуратно произносил. Проблема в том, что пока он дочитает формулировку, игроки уже давным давно все считали с экрана и обдумывают — это поставило бы комп в очень невыгодное положение.
    Ведущий вопросы читает скорее для зрителей, а не для игроков.

    Никакого ИИ — абсолютно механическая хрень.
    Как бы это грустно ни звучало, но человеческий интеллект скорее всего тоже «абсолютно механическая хрень».

    А распознавание вопросов не так тривиально как ты думаешь — голый поиск аля гугл не поможет тебе решить вопрос в стиле «человека, который смотрел на это в пятидесятых звали так же, как и зеленого человечка из фильма о любви».

  22. Peels:

    Ни тот ни другой подход даже близко к ИИ не подошли.

    Да не, на деле очень даже близко подошли. Гугл сам учится фильтровать тебе почту, роботы сами учатся ходить, распознавалка цифр сама учится распознавать цифры. На доработку одного уровня абстракции поверх этого уйдет еще пара десятков лет, но тогда гугл будет сам учиться тому, что фильтровать, роботы будут сами учиться тому, чему им учиться, и т.д. Потом вырастет еще один уровень абстракции и все, привет, SkyNet.

  23. Ehzapa:

    Как вы можете клеветать на Вассермана?!

  24. 05xela:

    А что, клевая вещь. Вообще обидно, что ии как правило достаются слабые мощности обычных процессоров. Использование суперкомпьютеров позволяет заглянуть на 5–10 лет вперед. Допустим когда роботы в реальном времени начнут оцифровывать окружающий ландшафт (что возможно) и видеть. Ну и машины водить например или пиво носить.

  25. Rumj:

    роботы в реальном времени начнут оцифровывать окружающий ландшафт — ну, уже начали, практически

  26. Ragak:

    скажите кто знает, а эти ии способны осознавать себя?
    и существуют какие–нибудь тесты дающие стопроцентный ответ, да мол, объект осознает себя как личность?

  27. Inra:

    это в ней было про квантовые случайности при мышлении, т.е. то что есть конечный алгоритм, но при этом мышление недетерминировано?

  28. Inra:

    тесты тут навряд ли помогут.

  29. Ragak:

    а как если не тестами?

  30. Inra:

    что из себя могут представлять эти тесты? ведь существо или AI, не обязательно могут обладать навыками речи, умением выстраивать длинные логические умозаключения, но при способны осознавать себя. к примеру после этого эксперимента, стало ясно что гориллы, да вероятно многие высшие приматы, отличаются от людей в плане разума количественно. а не как считалось ранее, качественно. при этом эти гориллы осознавали себя.

    т.е. я не говорю о принципиальной невозможности создания тестов, а лишь о невероятной сложности.

  31. Inra:

    интересно, а эксперимент с зеркалом можно считать этим тестом? когда животное понимает, что видит себя, и является ли это следствием самоосознания?

  32. Ragak:

    то что высшие приматы осознают себя, не изумляет. наоборот, логично что осознают. мы же тоже высшие приматы.

    да и хрен с ними. интересно за ии. будет страшно прикольно, когда железка или программа вдруг испытает кантовский экзистенциальный ужас. вот это будет точно начало новой эры.

  33. Peels:

    Напомните, пожалуйста, определение понятия «осознавать себя»?

    Делать вид, что она испытывает экзистенциальный ужас?
    Распознавать определенное изображение в зеркале?
    Уметь сопоставлять свои движения с наблюдениями из окружающего мира и реагировать соответственным образом?

    Все эти (и, скорее всего, любые другие) внешние проявления того, что тебе бы захотелось назвать модным, но бессмысленным с научной точки зрения словосочетанием «осознавать себя», конечно же можно проверить тестами и конечно же можно впрограммировать в ИИ, так же как это впрограммировано в тебя.

  34. Oiad:

    есть для животных тест, очень спорный. Называется Mirror test(или его модифицированная версия Rouge test). Заключается в том, узнает себя животное в зеркале или нет. Если узнает, значит оно обладает самосознанием(с чем многие верующие люди, кстати, очень не хотят мириться). К ИИ можно адаптировать такой тест, если ИИ заключен в андроида и обладает зрением. Можно ли будет понимать прохождение такого теста наличием самосознания — вопрос уже философский.

  35. Oiad:

    ой, уже ж написали.

  36. Ragak:

    определение? гм. ты осознаешь себя? если, да, то зачем тебе определение? если, нет, разговор будет крайне увлекательным.

    внешние проявления меня как раз мало интересуют. речь о внутренних проявлениях. способность вести внутренний диалог, склонность к рефлексии, фантазия и проч.

  37. Ragak:

    действительно спорно. тем более, что робот может вынуть глаз и посмотреть на себя и без зеркала.

  38. Oiad:

    если он вынет глаз, осмотрит себя и поймет, где он, а где окружение — это куда круче прохождения теста с зеркалом. Если он при этом сможет сделать какие–то выводы или принять решение из этого, то это наверно и есть самосознание.

  39. Ragak:

    да это все юмор. зачем андроид, зачем глаз? если машина вообще способна мыслить самостоятельно, то это случится в интернете. и у нее тогда будет миллион глаз. только посмотреть на себя, она все равно не сможет. и кстати, наличие настоящего мира, для нее будет только забавной гипотезой.

  40. Yelhsart:

    большая энциклопедическая база + алгоритм разбора и обработки конструкций вопросов. понятно. продвинутый гугл.

  41. 05xela:

    У нас такая машина ездит рядом от института где Malchus работает, я ее боюсь.

  42. 05xela:

    Вас что–то на лирику потянуло. ИИ это база знаний плюс система, делающая на их основе выводы. Про искуственную жизнь речи пока не идет, т.к. мы мало понимаем как сами мыслим.

  43. LetsoroC:

    выше правильно про Синклер написали.
    Ситуация как в «Автостопом по галактике» Адамса. У некоторых есть желание построить очень очень очень большой компьютер.

  44. Sdik_dni:

    а мне вот интересно, может ли один ИИ задетектировать другой ИИ во время разговора.

  45. 05xela:

    Или примитивный мозг.

  46. Yelhsart:

    система, АНАЛИЗИРУЮЩАЯ знания и делающая на их основе выводы. причём способная выходить за рамки простого статистического анализа.

    сегодня вообще корректней говорить об элементах ИИ, потому что до самого ИИ человечеству ещё очень далеко.

    я бы вообще не пытался намутить ИИ на железяках, а брал бы реальный мозг и пытался его сохранять в живом виде и подключать к разным системам, использовать уже имеющиеся в нём цепи и формировать новые по мере необходимости. вроде как с мозгом миноги что–то такое провернули уже. хотя понимаю, что это звучит чудовищно и наверное это было бы очень жестоко.

  47. Efilomre:

    В «Что, где, когда» он бы не выиграл, друзь спит спокойно.

  48. LetsoroC:

    потому что в нашей передаче говорят на русском.

  49. Yelhsart:

    в общем, будущее за кибернетикой, бионикой и красивыми девушками.

  50. Inra:

    да, это проблема. с этого начинаются практически все книги о ИИ и сознании.

    но распознавать изображение в зеркале != распознавать в зеркале себя(точнее понять что это ты, только со стороны).

    исходя из твоих рассуждений, раз все это уже прописано в человеке, то при первом в жизни контакте младенца с зеркалом, он должен узнать себя? осознание того что в зеркале он сам, приходит спустя какое то время, это не есть запрограммированная фича. это умозаключение, на основе наблюдений из окружающего мира + осознание того что он есть/существует и находится в этом самом мире. причем его сознание вероятно еще опирирует образами, а не определенным алфавитом(речь, язык).

  51. Inra:

    естественно все вышесказанное относится не только к человеку.

  52. ььс007:

    да не примитивный, у чуваков выиграл.

  53. Yelhsart:

    !!1 большая база данных ещё не есть высокий уровень развития. база большая, а обработчик узкоспециализирован — заточен под свою игру. если я ошибаюсь — расскажите мне, что ещё может эта машина. детский рисунок, скажем, распознает?

  54. Peels:

    гм. ты осознаешь себя? если, да, то зачем тебе определение?

    А какое мне дело до того, осознаю ли себя я или нет. Если рассматривать вопрос с научной точки зрения, то меня интересует вопрос, осознаешь ли себя ты. Или, раз разговор тут идет между нами двоими, то нас будет интересовать осознает ли себя блогер LetsoroC.

    Каким образом он может доказать нам, что это так? Как вообще можно отличать нечто «осознающее себя» от «не осознающего себя». Если для этого нет внешних критериев, возможно это понятие не имеет смысла. Почему бы не сказать, что любой кусок материи, включая меня, тебя, камень, деревья, популяцию планеты Земля, или галактика Андромеды в каком–то смысле «осознают себя». Только я осознаю себя человеком, камень осознает себя камнем, а галактика Андромеды осознает себя галактикой Андромеды.

  55. Peels:

    А что такое «узнать себя»? У младенца одна реакция на зеркало, у взрослого — другая. Реакция взрослого несомненно более комплексна и многоуровнева, но это не дает право утверждать что, скажем, младенец «не узнал в зеркале себя». Он увидел изображение, обработал до какой–то степени, но ему просто нечего с этой инфой делать.

  56. Ogenannu:

    я видел несколько научных коллективов из США, Индии и Японии, которые делают процессоры по типу строения мозга.

  57. Ogenannu:

    компьютер не на слух воспринимал информацию, а в текстовом виде, читай камменты!

  58. Inra:

    с «узнать себя» как раз проблем не возникнет. весь геморрой ии и сознания в самом определении слова «сознание».

  59. Ragak:

    всего хорошего

  60. Peels:

    Это теперь называется «крайне увлекательным разговором»?

  61. Ragak:

    по мне так, разговор считается увлекательным когда оба собеседника связно формулируют мысли. можно не отвечать на этот коммент. и не подумайте чего лишнего, я вас не брезгую. просто опасаюсь.

  62. Ragak:

    связно формулируют мысли, и оба получают удовольствие от разговора. извините за беспокойство. всего наилучшего.

  63. Peels:

    ОК. Но ты как–нибудь потом, когда сподобишься получать удовольствие от мысленных экспериментов, подумай все–таки о том, что «осознание себя» вполне может быть эффектом, не связанным с наличием у куска материи каких–то там нейронов, передающих электрические сигнальчики.

  64. Jjrm:

    да вроде в общих чертах все уже описано.

  65. Jjrm:

    Судя по описанию это прямой потомок такой древней разновидности программных и программно–аппаратных решений, как экспертные системы.

    По сути весь этот проект — одно большое PR шоу.

    Нет, начинить машинку самостоятельно скомпонованной и связанной базы знаний, сделать свой поисковик и все остальное — это очень круто, но ничего принципиально нового относительно того, что они умели 30–40 лет назад эта штука не демонстрирует. Тот же WolframAlpha на этом поприще меня куда больше впечатляет.

    Из реально перспективных проектов IBM и Швейцарского политеха в области A.I. — это Blue Brain Project, подобных проектов было достаточно много, у одного MITа с пяток публикаций читал, но очень интересно какую роль сыграет запредельное финансирование.

  66. Ffokcuhz:

    да это фуфло. Сканирующие системы уж давно есть. Проблема только в том, что интерпретировать эти данные как человек машины пока не умеют. Самая главная проблема — построение горизонталей. ЦМР+снимок+трассировщик+алгоритмы дают несусветную херню. Пока что. Алгоритмам построения горизонталей и вообще моделей местности посвящены целые кандидатские и докторские.

  67. HcTylAir:

    а нарисовать красивые и плавные горизонтали, как на олдскульни картах, может человек и только человек! 🙂

  68. HcTylAir:

    Просветите, пожалуйста, деревенщину.
    А вот Акинатор — он к ИИ как, никоим боком?
    Или это именно зародыш ИИ, умеющий распознавать человеческую речь и отвечать на вопросы?

  69. 05xela:

    Акинатор — вполне ИИ. Т.к. у него есть база данных и анализатор (построитель деревьев/классификатор)

  70. Uoyrofst:

    Мы не уверенны на 100% что сами себя осознаем. А вы про ии.

    Самосознание это какая–то эфемерная херня, которая непонятно зачем нужна и непонятно как отделяет интеллект от не интеллекта. И у нас нет точного критерия для понятий личность, интеллект и самосознание. Когда определят эти критерии, то сразу же сделают суперкомпьютер для его прохождения.

  71. Ragak:

    мы может быть и не уверены. а вот я как раз уверено. (речь не обо мне, вообще о я) самосознание вообще чуть ли не единственная вещь, которая не требует доказательств. мыслю, следовательно существую. каждый философ объективно знает, что он есть он, потому что он это думает. наличие всех остальных философов уже не догма.

    я где–то кардинально ошибаюсь в своих рассуждениях?

  72. Ragak:

    ага. а вот сейчас адекват пошел. я тебя услышал. как ни странно, я стою почти на таких же позициях в этом вопросе.

    только для меня наличие самосознания у человеческих особей не вызывает сомнения. логика такая: у меня самосознание есть, я не уникален, я типовой организм, эрго, самосознание есть у всех таких же. я понимаю, что вывод слишком бодрый, и есть примерно половина шансов, что на самом деле существую только я, а все остальное плод воображения. но это скучно.

    Логично продолжить экстраполяцию на высших приматов, и так далее вниз по дереву, до кольчатых червей. Наверное. Доказательств нет. Поговорить с шимпанзе, с дельфином, еще хоть как–то можно. А с ланцетником совсем проблематично. Но, не суть. Есть у животных самосознание, нет ли, науке это неизвестно, и в данный момент нам не нужно. Мы же тут за ии трем.

    Я легко могу представить самосознание у планеты или галактики. Земля устроена сложней человека. Где–то читал, помню сильно поразился, что мол, если старатели проходят по золотой жиле, выбирая ее полностью, то лет через пятьдесят–семьдясят почва в радиусе полкилометра сначала выпучится, постоит горбом, а потом постепенно просядет. Жесть как похоже на воспаление поврежденной кожи.

    Но вот самосознание камня? Гм… а чем ему? И зачем? Ну вот осознает он себя камнем, потом его раз и в море кинули. и стачивают о песочек в песочек миллион лет к ряду. или взяли просто так без всякой причины напильником исширкали за десять лет одиночного заключения. не вижу смысла в его осознанном существовании.

    но, это опять же ладно. мысленные эксперименты, бла–бла–бла. вернемся к ии.
    камни, галактики, планеты, людей, ланцетников создал большой взрыв, природа, ну или там бог, в общем кто–то из них. Искусственный интеллект создал человек. То есть точно не бог. В нем божественной искры нет в принципе. Если удастся пробудить самосознание внутри машины или программы, это уж точно будет кое–что новое. Это не айфон 4джи. И не коллайдер. Это потрясет основы.

    Ну и чуть–чуть по процедурному вопросу. Зачем ты пытаешься общаться пренебрежительно? «когда сподобишься получать удовольствие», «того, что тебе бы захотелось назвать модным, но бессмысленным». Все это отвлекает. Если это единственно возможная форма общения, я так и быть потерплю.

  73. Xisip:

    В этом ролике они всё же Ватсону голосом задают вопросы. У них там в YKT целая команда занимается распознаванием речи; было бы странно, если бы они не продемонстрировали ее достижения.

  74. Amas:

    Судя по всему, чтобы человек признал в каком–то аппарате наличие сознания — оно (сознание) должно быть примерно такого же уровня, такой же сложности как и у людей.

    Скажем, я не сомневаюсь, что кошка тоже себя как–то осознаёт. Но если создать компьютер с поведением кошки, мне кажется, бурных обсуждений это не вызовет. Будут комментарии вроде «ну немного лучше робота–пылесоса, ничего принципиально нового».

    А вот если какая–то система сможет общаться с человеком на равных (хотябы на уровне 5–летнего ребёнка) и именно мыслить (в отличие от компьютера Jeopardy) — это уже будет то что мы называем наличием сознания.

    Так вот, чтобы в системе появилось самосознание в нашем, человеческом понимании, и при этом такой же сложности как у человека — думаю, ему должно быть интересно находиться в теле такой системы.

    Как минимум система не должна работать по чётким заданным алгоритмам, а иметь какую–то «свободу», возможность самообучения: очень большое количество нейронов, большое количество рецепторов для получения информации извне и для взаимодействия с внешним миром.
    В этом случае, возможно, сознанию будет интересно находиться в такой системе (хотя, пока не представил, в какой момент сознание там может зародиться, и как это должно произойти).

    Вполне возможно, что такое сознание сможет зародиться и в интернете, да. Хоть и взаимодействия с нашим миром напрямую не будет, но система будет достаточно сложна, чтобы в ней было интересно поселиться сознанию уровня человека.

    А провести чёткую границу — «здесь есть самосознание, а вот здесь нету», наверное и невозможно. Это не чёрное и белое.
    Ведь можно создать мини–робота с точной копией поведения, например, таракана. Наверное, это будет сложно, но сегодня вполне возможно. Будет ли у такого робота такое же сознание, такое же я как у таракана?

    Кстати, на счёт камней. Когда я вижу вот такие образования, или, например, смотрю фото Ленских столбов в Сибири ну и прочие похожие штуки — то думаю, что и камни вполне могут обладать каким–то сознанием в более широком понимании.

  75. Peels:

    Если удастся пробудить самосознание

    А зачем его «пробуждать»? Может оно уже и так есть. У камня есть. У компьютера — тоже есть. Это просто такая иллюзия существования материи. Причем объективно не проверяемая и не наблюдаемая, тем самым стоящая з рамками науки и технологий. Обсуждение такого не наблюдаемого понятия самосознания сродни обсуждению свойств того маленького, летающего по орбите земли осьминожки.

    Зачем ты пытаешься общаться пренебрежительно?

    Сначала в ответ на развернутый комментарий мне бросают безапелляционно–хамское «всего хорошего», а теперь, оказывается, это я здесь «пытаюсь общаться пренебрежительно»? Фигасе у вас логика работает, блогер Ragak.

  76. Xisip:

    Похоже, Ватсон что–то там «думает», а не просто data mining и тому подобные БД–быдлоштуки. Подтверждением может быть то, как он отвечал на вопрос об аэропорте (см. начиная с 01 до конца этого ролика ) Как сказал начальник: Whatson is not dealing with structure databases. It’s trying to understand language И якобы Ватсон так ответил потому, что бейсбольная команда из канадского Торонто играет в лиге США.

  77. Ragak:

    всего хорошего, это такая универсальная форма прощания. довольно вежливо, кстати. ну да не суть, проехали.

    а почему, собственно не проверяемая? теоретически непроверяемая, а практически, почему нет? психологические тесты способны диагностировать даже психические отклонения. не стопроцентно естественно. Ну да и ладно к чему суперточность?

  78. Peels:

    почему, собственно не проверяемая

    Объективно наблюдать (а также записывать для будущих поколений и обсуждать с другими людьми) можно только что–то, имеющее объективные внешние проявления.

    Объективные внешние проявления — это, насколько я понимаю, совсем не то, что ты подразумеваешь под эфемерным термином «самосознание». Иначе возвращаемся к забракованному тобой моему первому комментарию — определи, по каким внешним проявлениям можно отличать «осознающее себя» от «неосознающего себя». Психологические тесты что–ли?

  79. Inra:

    Как минимум система не должна работать по чётким заданным алгоритмам, а иметь какую–то «свободу», возможность самообучения: очень большое количество нейронов, большое количество рецепторов для получения информации извне и для взаимодействия с внешним миром.

    нейронные сети как раз таки описываются чисто математически, никакой неопределенности там нет => алгоритмы мышления четко определенны, никакой магии. НО, в качестве входных данных используется сенсорная информация + главная компонента, это некий рандомный шум в коэффициентах связей нейронов. настоящий рандом можно быть только квантовым, что вполне может быть реализовано природой в нейроне. и вот когда во входных данных появляется не псевдо, а самый настоящий рандом, вот тогда при четко определенных(с математической точки зрения) алгоритмах возможно появление интересных вещей. т.е. система описана математически, из набор входных данных мы знаем только то что определенно(сенсорная инфа) + рандом, произведя итерацию, мы не можем определить новое состояние.

  80. Inra:

    это ты клонишь к тесту с комнатой и китайскими табличками?

  81. Ragak:

    так да. я же с этого и начал. именно психологические тесты.

    если б я знал как определять наличие самосознания, я бы наверное не стал задавать этот вопрос.

    мне всего лишь интересно, ведутся какие–то работы по изучению феномена самосознания? если ведутся, то вдруг кто нибудь знает, что там с результатами.

    это же интереснейшая вещь. вот компьютеры, они с каждым годом все круче и круче. обыгрывают человека в шахматы и все такое. кто–то вообще работает над тем чтобы ИИ «повел себя»? задал вопрос «кто я?», «зачем я?», проявил свободу воли.

  82. TuanOFu:

    Акинатор — это экспертная система.

    Экспертная система работает по базе знаний — это такой набор пар «определение» — «набор фактов», который составляется предварительно человеком–экспертом в данной области.

    Например, база знаний по болезням: «ангина» — «температура высокая, горло болит, живот не болит», «гастрит» — «температура нормальная, живот болит, горло не болит», «волчанка» — «температура высокая, горло болит, живот болит» и так далее.

    В процессе работы система выдает пользователю ряд вопросов (например, в случае медицинского применения — какая температура у пациента, не болит ли у него живот, данные анализов, и так далее), и, после каждого ответа просматривает свою базу знаний, выбирая из неё непротиворечащие ответам пользователя определения (например, если пациент ответил отрицательно на вопрос, болит ли у него желудок — язву и гастрит в качестве потенциальных диагнозов можно исключить). Так продолжается, пока из всей базы не останется один возможный ответ, либо не будет обнаружено, что в базе знаний системы нет подходящего определения.

  83. Peels:

    кто–то вообще работает над тем чтобы ИИ «повел себя»? задал вопрос «кто я?», «зачем я?», проявил свободу воли.

    Написать программу, которая будет задавать вопросы и «вести себя» не так сложно как ты думаешь, для этого даже «интеллекта» особо не нужно. Но как только тебе такую программу предъявят, ты тут же заявишь, что «ну неет, это не то самосознание, о котором я говориил».

    Свободу воли проявляет Виндовс, когда по своей воле перезагружает комп для установки апдейтов. И че.

    ведутся какие–то работы по изучению феномена самосознания?

    Такие работы вести принципиально нет смысла ибо само понятие самосознания будет в точности тем, чем ты его определишь. Ведутся работы по созданию интеллекта, способного решать задачи не хуже человека. Вопрос того, что будет «чувствовать» этот интеллект ненаучен. На него сможет в лучшем случае ответить лишь сам интеллект, и ответит в точности то, что он будет научен отвечать.

  84. Peels:

    это из той же темы, да.

    Вообще если меня лично спросить, то разница между якобы «сильным ИИ» и «слабым ИИ» лишь в том, что первый не поддается пониманию человеком. Т.е. это вполне определенная программа, которая работает как и положено (и не надо никакой чепухи про квантовую дурь), единственно чем она необычна это то, что ее невозможно полностью «понять» человеческим разумом — в нашем мозгу недостаточно символических вычислительных способностей, чтобы описать ее всю и иметь возможность уверенно предсказывать поведение.

    Вопрос тогда стоит лишь в том, может ли человек, пользуясь своим разумом, создать что–то, что он своим же разумом не способен «понять» и предсказывать (и что вдобавок будет делать что–то полезное а не рандомно мигать лампочками). Ведь вроде бы все что мы делаем должно обязательно быть сделано по понятным нам же чертежам и, поэтому, иметь понятное нам и предсказуемое поведение. А все что понятно и предсказуемо не кажется достаточно «интеллектуальным».

    Подвижки в датамайнинге последних 30 лет показывают что на самом деле вполне возможно создать систему, которая будет вести себя сложнее, нежели ее «чертежи» и тем самым по сложности поведения превзойти разум создателя.
    Фишка в том, чертежи этой системы, при их простоте и «понятности», не будут описывать ее поведение. Поведение будет задаваться огромным объемом данных по соответствующей теме. Это можно назвать «обучением» на на деле процесс даже не обязан быть похож на «обучение» — самый банальный алгоритм K–ближайших соседей особо ничему не «учится», но будет выше нашего понимания если использумый объем данных достаточно большой.

    Ну а как набрать петабайты данных в наше время уже всем понятно.

  85. Ragak:

    я так понял, ты считаешь, что феномен самосознания непознаваем в принципе.

    я только не понял почему. реальность дана нам в ощущениях. физический мир существует тогда, когда его видит наблюдатель. ну и прекрасно. почему это нельзя изучать и исследовать?

  86. Peels:

    я только не понял почему. реальность дана нам в ощущениях. физический мир существует тогда, когда его видит наблюдатель. ну и прекрасно. почему это нельзя изучать и исследовать?

    В современной науке, «наблюдатель» — это абстракция, которая означает объективные наблюдения, то есть наблюдения, не привязанные к самому наблюдателю. Если слегка упростить, научный интерес представляют лишь наблюдения репродуцируемых экспериментов, которые можно увековечить, описав словами и картинками на бумаге или другом внешнем носителе информации. Если еще упростить — научным является утверждение, которое можно проверить экспериментом.

    Что касается вопроса «осознаю ли я себя», то он почти ненаучен, ибо
    1) Не является репродуцируемым экспериментом. Его не может повторить другой человек.
    2) Его невозможно объективно описать, ибо его не могут наблюдать два человека одновременно. Мы можем лишь спекулировать о том, что твое «осознание себя» является тем же, что у меня. Максимум что я могу следать — это ввести определение «самосознания» и предполагать, что им обладают еще кто–то. Выбор определения здесь абсолютно произволен.

    Поэтому, если мы говорим о науке, как я уже выше написал в забракованном тобой комментарии, мы должны ставить вопрос не как «осознаю ли я себя», а «осознает ли ОН себя», и тут все становится еще хуже:
    1) Между утверждениями «он говорит, что осознает себя» и «он осознает себя» есть квалитативная разница, и в то же время внешние проявления одинаковы. По сути «осознает ли он себя на самом деле» — абсолютно безынформативный аспект.
    2) Как следствие, в случае с собаками, деревьями и камнями, вопрос «осознает ли он себя» вообще непроверяем (а именно в этом контексте тема возникла в данном посте).
    3) Наконец, не видно возможности репродуцируемо и проверяемо получать ситуацию, где человек бы «не осознавал себя», таким образом нет факторов, которые представляли бы интерес в изучении.

    При этом можно, конечно, определить понятие «осознавать себя» как то, что отличает глубокий сон от бодрствования, и в этой области дофига чего научного делается. Основное различие здесь, походу, упирается в работу памяти — нет разницы между ощущениями «я не осознавал себя» и «я не помню, как я осознавал себя». Но в контексте исследования памяти, понятие «осознания себя» уже наверняка не то, что ты подразумевал.

    Возможно когда–нибудь наука переопределит свою методологию в такую, которая позволит что–то интересное узнать об «осознании себя», возможно ответ на этот вопрос даст фундаментальное понимание сути бытия, но пока это науке категорически неподвластно, так же как и вопрос о создателе вселенной или о существовании осьминожки на орбите земли.

  87. 05xela:

    не уверен насчет rule–based случае Акинатора

  88. TuanOFu:

    по–моему, это самая очевидная реализация. по крайней мере так легче всего автоматически наполнять базу новыми записями (на основании сеансов, когда акинатор не смог угадать), и сужать круг небесполезных вопросов (если персонаж жил в 17 веке, то можно после не спрашивать, был ли он кинозвездой).

  89. 05xela:

    А по мне так самое типичное построение классификационных деревьев.

  90. Rumj:

    извини, не уловил мысль. Почему фуфло? Робот строит пространственную модель свободного места и занятого.
    Или ты под «оцифровывать окружающий ландшафт» какую–то другую задачу понимаешь? И что такое ЦМР, кстати?

  91. Oiad:

    Интересное интервью с реддита. Клик клик.

  92. LA_:

    Какой нафиг искусственный интеллект и «самоосознание». Если кому–нибудь интересно, я откопал свою презентацию о том, как это делается где–то двухлетней давности — то есть буквально то же самое, чем занимается этот компьютер. Во всяком случае, в принципиальном смысле отличий нет, просто алгоритм немного более продвинутый и позволяет делать более изящные штуки. Но именно угадывание ответа на вопрос происходит, мне кажется, именно на основе вот того, что в презентации и статье.
    Можете почитать, хоть она и была расчитана на маленькую специфическую аудиторию, всё должно быть ясно:
    //foo.ru/files/cmc/lsa–p.pdf

    Презентация основана на статье «Thomas K Landauer, Peter W. Foltz, Darrell An Introduction to Latent Semantic Analysis» 1998 года, между прочим. Если с английским всё ок, можете найти и прочитать в оригинале — там больше и куда интереснее.

  93. Ffokcuhz:

    ну. Сканирующие системы — еще 20–й век, просто вот эта фигня оснащена отличным сканером, данные которого она умеет обсчитывать в реальном времени, рассчитывая по ним маршрут движения. Системы навигации и маршрутизации давно занимаются этим вопросом. Даже кто–то на блоге диплом по этому поводу писал.
    ЦМР — цифровая модель рельефа (местности), набор XYZ. По сути эта летающая фигня и собирает ее, интерпретируя на самом примитивном уровне. Это не вау, это все тот же 20–й век.
    Более интересны исследования идут по отдельным компонентам этой приблуды. Во–первых, это сами по себе сканирующие системы (технологии Kinect и Move — это риальни прорыв, с такой–то ценой), во–вторых, это системы интерпретации ЦМР (поле непаханое), а в–третьих, системы маршрутизации (вот тут вообще в связке с интерпретацией данных практически пустота, сплошные сетевые анализаторы).

  94. Sal:

    Когда оно втихаря сменит регистратора sky.net на себя, вот тогда надо будет беспокоиться.

  95. Oiad:

    в интервью комментарием выше пишут, что связи семантические у слов есть. Фразы разбиваются на логическую структуру и на основе нее получают возможные ответы. Потом уже с этими ответами работают примерно как описал ты, только с другой стороны.

  96. Peels:

    в принципиальном смысле отличий нет

    В принципиальном смысле нет отличий между шимпанзе и человеком, у последнего просто алгоритм более продвинутый и позволяет делать более изящные штуки.

    Ну а по существу: если для поиска прямых ассоциаций и синонимов от LSI может быть толк, то для отвечания на закрученные вопросы — это абсолютно беспомощная технология, как и все, что основано на bag of words. Для таких подходов нет разницы между фразами «зеленое дерево» и «древесная зелень», не говоря уже о распознании какой–либо структуры связей и ссылок между словами, понимании непрямых отсылок типа «тот, кто видел того, кто слышал это», учитывании отрицаний, итд итп.

  97. Ogenannu:

    Простая Казахская девочка

  98. Ukizdav:

    При совершенно несравнимых принципах работы с информацией у компьютера и живых игроков, говорить о «невыгодном положении» компьютера за счет задержки поступления входной информации не очень верно.

  99. Peels:

    Что там «несравнимого», как это связано с невыгодностью задержки и почему говорить об этом «не очень верно»?

    На многие вопросы игроки–человеки знали ответ уже до того как ведущий дочитал формулировку, и вопрос победы упирался в то, чтобы вовремя нажать кнопку — не слишком рано, и не слишком поздно.

  100. Rumj:

    из того, что ты говоришь я делаю вывод, что проблема только в скорости обработки. Или я ошибаюсь и есть какие–то непреодолимые пока принципиальные вещи?

  101. LetsoroC:

    главное общее заблуждение — мозг ничего не считает. Он постоянно предсказывает и решение достает в готовом виде из памяти.
    Как он это делает — загадка.
    Пока не поймем, мегабайты и мегагерцы не помогут.

  102. Peels:

    Меня поражают люди, которые с авторитетным видом делают какое–то заявление про то как все вокруг заблуждаются и как «на самом деле правильно», а потом тут же с не менее авторитетным видом добавляют «но науке это еще не известно!».

  103. Ffokcuhz:

    принцип в проработке «физиономичности» модели. Т.е. для нормального представления местности в трехмерном пространстве необходимо дикое количество точек съемки этой местности. Человек умеет обходиться снимком и в десятки раз меньшим количеством промеров. Конечно, когда будут дешевые методы съемки с дециметровым разрешением в радиодиапазонах (иначе задолбаешься с облачностью), то тогда и отпадет необходимость в интерпретации данных. Нюансов тут дофигища, я эту тему не разрабатываю, а только краем уха слышал от преподавателей и одногруппников.
    А если продолжать тему про связку маршрутизации и интерпретации пространства, то пока что никакие суперкомпьютеры с этой задачей не справятся, а уж микрокомпьютеры тем более. Эта проблема актуальна для той же космической программы — только на Марсе из–за задержек обратной связи просирали несколько раз все полимеры. А так бы все эти роверы сами бы оценивали местность и метеоусловия, ползая по планете.

  104. Ffokcuhz:

    несмотря на это, он прав. Принципы работы не то что мозга, а даже зрительных органов живых существ, пока что окутаны мраком. Т.е. технически все понятно, как работает, а вот каким образом — нет.

  105. Peels:

    Нуу фиг знает что у вас там мраком окутано. С моей колокольни по большому счету все ясно.

  106. Ffokcuhz:

    ну хорошо, объясни мне, сирому и убогому, как работает механизм зрительного восприятия окружающего пространства.

  107. Ffokcuhz:

    или, например, объясни, почему человеческий глаз на переднем плане видит все в ортогональной проекции, а на отдалении в перспективной?

  108. LetsoroC:

    это не мои мысли. Прямо сейчас перечитываю «о интеллекте» Jeff Hawkins.
    На пальцах он доказывает:
    время реакции одного нейрона = 5 мС
    человек находит кошку на фото за 500 мС
    Значит длина цепочки нейронов была не длиннее 100 нейронов.
    Значит найти кошку путем вычислений не возможно.

  109. Rumj:

    как насчёт распараллеливания?

  110. LetsoroC:

    здесь и так параллельно. Но решение должно быть найдено не более чем за 100 шагов.

  111. Peels:

    Картинка проецируется на сетчатку. В зависимости от того, что туда проецируется, происходит та или иная реакция нейронной сети.
    И не надо самоуничижения.

  112. Peels:

    «В ортогональной проекции» человеческий глаз предметы, по размеру превышающие размер хрусталика, видеть не может по определению этой самой ортогональной проекции.

    Более того, вопрос проекции — сугубо оптический и к специфике обработки данных отношения не имеет.

  113. Peels:

    Уж больно «на пальцах» доказательство. Вывод очевидно высосан из этих самых пальцев.

  114. LetsoroC:

    аргумент то у автора железобетонный. Есть что возразить по–существу?

    твоя позиция хороша. «по большому счету все понятно».
    Будет время — сядешь напишешь?

  115. Peels:

    Ты не поверишь, но современный фотоаппарат Canon находит лица на фотографии алгоритмом, который при распараллеливании требует всего двух шагов.

  116. Peels:

    В чем аргумент «железобетонный» — то?
    Для справки, распознавание лиц в духе того что сейчас делает каждая мыльница Canon требует, при распараллеливании, всего двух «шагов», причем каждый «шаг» реализуем дебильным линейным нейроном.

    Почему за 100 «шагов» нельзя распознать кошку мне не понятно.

  117. Ffokcuhz:

    в таком случае ты все предметы видишь в перспективной проекции. Поэтому, вытянув руки вперед, ты должен видеть их сходящимися по направлению к горизонту. Сочувствую.

  118. Ffokcuhz:

    а также, например, чашка, стоящая в 2х метрах от тебя, должна выглядеть в 2 раза меньше, чем такая же чашка на расстоянии 1 метр.

  119. Ffokcuhz:

    все это хорошо, но как обсчитывать все это на лету и как добиться такого же разрешения с высоты спутника?

  120. Ffokcuhz:

    ответный вопрос. Почему до сих пор нет алгоритма по распознаванию кошки на снимке?

  121. LetsoroC:

    потому что никому еще не удалось решить эту задачу.
    Так чтобы искать обьекты частично закрытые другими объектми — с не полной инфрмацией. Под любым углом, а не просто поиск фронтального лица. Причем с почти 100 прцентной точностью. И не только на фото, но и на риунках четырехлетних дебильных детей.

    Прислал приятель ссылку на форум пентакса. Как один не мог сфокусироваться на обезъян через решетку. Потом переключился на распознавание лиц…

    можно для развития ссылку про распознавание лиц в два шага?

  122. Peels:

    в таком случае ты все предметы видишь в перспективной проекции.

    Да, примерно так.

    Поэтому, вытянув руки вперед, ты должен видеть их сходящимися по направлению к горизонту.

    Да, это так. А нарисуй–ка мне, как ты видишь вытянутые перед собой руки.

    Сочувствую.

    Да не стоит.

    а также, например, чашка, стоящая в 2х метрах от тебя, должна выглядеть в 2 раза меньше, чем такая же чашка на расстоянии 1 метр.

    Несомненно, все именно так и есть.

    Если ты о том, что несмотря на линейные различия размеров чашек на сетчатке, мозг умеет интерпретировать эти размеры в контексте окружающей перспективы, то ничего удивительного и непостижимого в этом нет.

  123. Ffokcuhz:

    сочувствую, чувак. Лечи астигматизм 🙂

  124. Peels:

    потому что никому еще не удалось решить эту задачу.

    А вы, ребята, не задумывались о том, что никому нахрен пока не вперлось распознавать кошек. Причем это не является какой–то из ряда вон выходяще–сложной задачей и решается тем же самым способом, что и многие другие распознавания. Только вот качественная реализация такого алгоритма потребует некое количество человеко–часов скрупулезной работы — сбора данных, их очистки, подгонки параметров классификатора, итд итп.
    Кстати если уж говорить о сложностях, то «классический» пример здесь не в том, что кошек сложно опознавать, а в том, что кто–то когда–то пытался делать классификатор кошек и его классификатор работал, но путал кошек с собаками. Товарищу было лень ковыряться в деталях и придумывать правильные свойства, с помощью которых он бы кошек от собак отличал. Он забил, но рассказал об этом на какой–то конференции. С тех пор эта байка про кошек ходит кругами.

    Так чтобы искать обьекты частично закрытые другими объектми — с не полной инфрмацией. Под любым углом, а не просто поиск фронтального лица. Причем с почти 100 прцентной точностью. И не только на фото, но и на риунках четырехлетних дебильных детей.

    Нудык, даже тренировка фронтальной распознавалки лиц, хоть это всего по сути модель одно — максимум двухслойной сети — довольно трудоемкая задача. Добавление каждого следующего уровня абстракции (считай следующего слоя сети) увеличивает сложность экспоненциально. В мозгу же этих слоев гребаные десятки миллионов — коню понятно что результирующий функционал посложнее фронтальной распознавалки.

    Кстати позволь обратить твое внимание, что лицо в перевернутом виде человек распознает хреново.

    Cделать силиконовый мозг нам сейчас не под силу, но далеко не потому что «науке неизвестно что там и как».

    Представь аналогичную ситуацию — тебе показали процессор Intel CORE i7 и ничего про него не сказали. Ты видел, что он умеет делать супермудреные штуки, ты как–то микроскопом узнал, что там внутри транзисторы, ты знаешь что гипотетически, пользуясь большим количеством транзисторов, как раз такие вот штуки можно сделать. Но на данный момент твои технологии не позволяют тебе сделать ничего сложнее двух транзисторов, да и те размером с дом. Глупо будет заключать, что «нам неизвестно как работает процессор».

    можно для развития ссылку про распознавание лиц в два шага?
    Погугли что–ли. Комбинация линейных классификаторов в данной области почти state of the art.

  125. Peels:

    Шутка, повторенная дважды, звучит тупо.

  126. Ffokcuhz:

    вот ты сейчас сам себе разъяснил то, что тебе втирают.

    Каким образом работает мозг — да, известно. Но КАК он работает — тут уж хрен его знает. То же самое и с интерпретацией образов. Есть сетчатка, есть образ на ней. Но каким образом мозг трансформирует изображение в ортогональной проекции в центральную — неизвестно. Об этом тебе и талдычат.
    Воспроизвести процесс можно. Но как воспроизвести его осмысление — ПОКА никто не знает.

  127. LetsoroC:

    я работал в фирме, которая делала в железе и писала свою систему видеонаблюдения. Была группа программеров которая занималась распознаванием номеров, лиц, количества рулонов линолеума на погрузчике и. т.д.
    Так вот тогда (6 лет назад) задача определения человека в кадре — тревога и птиц–кошек–собак — тревоги нет была «филосовским камнем». Несбыточной мечтой руководства. Сулило миллиарды прибыли. Ведь охранник физически не может следить за десятками камер.

  128. Peels:

    Каким образом работает мозг — да, известно. Но КАК он работает — тут уж хрен его знает.

    Извини, но для меня «каким образом» и «как» — это синонимы, а твоя фраза не имеет смысла.

    Но каким образом мозг трансформирует изображение в ортогональной проекции в центральную

    Во–первых, изображение на сетчатке в перспективной проекции. Во–вторых, «центральной» проекции не бывает. В–третьих, мозг никакие проекции не трансформирует. Мозгу вообще пофигу на то, в какой там что проекции.

    Воспроизвести процесс можно. Но как воспроизвести его осмысление — ПОКА никто не знает.

    В–четвертых, ты походу сам не понимаешь что такое «осмысление», и жонглируешь этим термином для пущей важности. Если ты пытаешься рассказать о том, что, мол, «полная симуляция функций человека не будет означать что симулятор «осмысливает» что делает, это будет неполноценный интеллект», то лучше не говори об этом, иначе договоримся до того, что у тебя–то на самом деле нет способов доказать мне что ты сам не симулятор и способен что–либо «осмыслить».

  129. Peels:

    Ну вот слету тебе статья япошек из далекого 1996го года, где движение людей распознают с 98% recall имея не больше 8% false positives.

    Если погуглишь более современные работы, увидишь что точность с тех пор только выросла.

    А то, что какая–то компания не смогла решить какую–то конкретную задачу — совсем не аргумент в споре о том, что, мол, «науке, мол, еще не известно». На то могло быть тысячи других, более вероятных причин.

  130. Ffokcuhz:

    ок, для такого формалиста, как ты, введу поправки к своим косякам: ортогональная = перспективная, центральная = ортогональная. Предметы на близком плане обычный человек видит в ортогональной проекции. Иди погугли, если не веришь.
    Понимание принципа передачи нейронов и схема нейронных цепей не означают понимание работы мозга — так понятней?
    Доклад япошек интересный, но почитать его нельзя, да и впоследствии эти имена и статьи уже не всплывают. Почему? Ты охотно кидаешь ссылки на какие–то исследования, но почему–то ни одного реализованного проекта нет. Почему?

  131. Ffokcuhz:

    так, кажется, наш разговор ушел куда–то не туда.

    Системы распознавания человеков и их лиц на картинках — это, конечно, хорошо, но вся эта ерунда решает совершенно противоположные задачи.
    Системе распознавания образов не нужно искать человека или кошку. Ей нужно распознать человека, кошку, дерево, окурок, ссущую собаку на заднем плане и ее струю. А еще облачка, солнышко и самолет.
    Задачи интерпретации и дешифрирования лежат как раз в этой области. Мало найти на снимке лес, нужно его еще разобрать по породам, а также определить по текстуре и структуре подстилающий покров. Эти задачи до сих пор не решены. Также не решена и задача автоматизированного построения горизонталей.

  132. Peels:

    обычный человек видит в ортогональной проекции.

    Либо ты не вкуриваешь что такое ортогональная проекция, либо у тебя очень специфическое понимание концепции «видит». Давай на простом примере — вот на компьютере стрелялка от первого лица. Она, соответственно, отображает на экране двумерную проекцию всего, что человеку положено «видеть», пытаясь максимально близко имитировать то, что человек будет видеть. Ты хочешь сказать, что предметы «на близком плане» будут отрисованы как–то отлично от далеких?

    Иди погугли, если не веришь.

    Не верю. Давай, подкинь–ка ссылочку.

    Понимание принципа передачи нейронов и схема нейронных цепей не означают понимание работы мозга — так понятней?

    Под «пониманием работы мозга» ты что имеешь в виду? Еще раз повторюсь, что если тебе лично что–то непонятно, не надо проецировать это на весь мир.

    Доклад япошек интересный, но почитать его нельзя, да и впоследствии эти имена и статьи уже не всплывают.

    Тебе не стыдно так откровенно врать? Здесь в одном предложении три неверных утверждения, при этом коряво сформулированные («всплывают»? что, простите, должно «всплывать»?). Даже не знаю что отвечать на это.

    почему–то ни одного реализованного проекта нет. Почему?

    Тебе не надоело втыкать сюда откровенно ложные утверждения с тоном эксперта, хотя ты очевидно в данной области даже википедию не удосужился почитать?

  133. Peels:

    Пока писал жукову комментарий гугл выдал по соответствующему запросу еще вот. Как раз 6 лет назад писано.

  134. Ffokcuhz:

    нет уж, чувак. Ты всех призываешь гуглить о твоих безошибочных выводах — вот сам и гугли по моим безошибочным 🙂

  135. Ffokcuhz:

    и да, я знаю о проекциях больше, чем написано в википедии 🙂 То есть гарантированно больше тебя. Иди, учи матчасть 😉

  136. Ffokcuhz:

    ты утомил со своими датчиками движения 🙂

  137. Ffokcuhz:

    да и вообще, не понимаем мы в буржуйских языках, на русском статьи давай!

  138. Peels:

    нет уж, чувак. Ты всех призываешь гуглить о твоих безошибочных выводах — вот сам и гугли по моим безошибочным 🙂

    Фигасе хамство. Обрати внимание, что я сначала предоставляю ссылки, а потом уже советую гуглить, если одной ссылки мало. Более того, я готов отвечать за свои слова и всегда готов помочь страждущему нагуглить то, что он без меня не может.

    А ты здесь порешь безапелляционную чушь, доказательств к которой ты не имеешь.

    и да, я знаю о проекциях больше, чем написано в википедии 🙂 То есть гарантированно больше тебя. Иди, учи матчасть 😉

    Утипути какой крутой горячий парень. Неужто уже второй курс пошел? Смотри не лопни от осознания своей опупенности.

  139. Ffokcuhz:

    не, я пока готовлюсь поступать 🙂 А ты что заканчивал?

  140. Peels:

    Ты утомил своей непробиваемой глупостью.

  141. Ffokcuhz:

    ура! хамло трамвайное прорезалось 🙂

  142. Peels:

    не, я пока готовлюсь поступать 🙂 А ты что заканчивал?

    Не важно что я заканчивал. Важно что по многим вопросам здесь ты заблуждаешься.

    да и вообще, не понимаем мы в буржуйских языках, на русском статьи давай!

    Гора не придет к Магомету. Учи английский, без него в науке и современных технологиях никак.

  143. Ffokcuhz:

    а ты, конечно, непогрешим, о мудрейший!
    ок.

  144. Peels:

    А обязательно смайлики в конце каждого комментария ставить? Они не сильно смягчают нелепость содержания.

  145. Peels:

    Я погрешим, но в данном случае это к делу не относится.

  146. Ffokcuhz:

    а вообще крутой разговор вышел!
    — На данный момент систем распознавания образов нет.
    — Ну как же, есть фишки, распознающие лица (сцылко на гугель)!
    — Нет, ну это хорошо, а картина в целом?
    — Можно распознать движение (сцылко на гугель)!
    — Нет, ну мы же про картину в целом…
    — Смотрите, какие классные CCTV (сцылко на гугель)!

    Мало того, что разговор ушел не в те дебри, так еще и попытки вывести его к первоначальным тезисам обрубаются на корню. Я понимаю, что тебе неинтересны системы распознавания образов, но ты знаешь про распознавание лиц. Мне это напоминает анекдот про студента, выучившего билет про блоху.

    Не о том речь шла! И совершенно современных CCTV вообще ни к селу ни к городу. Каюсь, не просек твой формализм и формулировал недостаточно четко свои мысли, надеясь на одну волну интересов. Но нет, в этом разговоре тебя интересует только твоя точка зрения, причем даже не точка зрения, а бравирование знаниями в смежных областях. Круто, не спорю, я так быстро не умею информацию откапывать.
    Все эти CCTV требуют контроля человека. Это не ИИ. И действующих прототипов таких систем с навыками ИИ я не нагуглил. Это возвращаясь к изначально теме поста. Системы распознавания образов есть — системы интерпретации и анализа их нет. Т.е. эта система не считает эмоции, не уловит язык тела, язык мимики. Она не отличит две походки (хотя не уверен, это вроде не так сложно). Т.е. она не анализирует набор данных на уровне человека. Об этом я и говорил.

  147. Ffokcuhz:

    сегодня ты Бох, я понял, спасибо.

  148. Peels:

    — На данный момент систем распознавания образов нет.
    — Ну как же, есть фишки, распознающие лица (сцылко на гугель)!
    — Нет, ну это хорошо, а картина в целом?
    — Можно распознать движение (сцылко на гугель)!
    — Нет, ну мы же про картину в целом…
    — Смотрите, какие классные CCTV (сцылко на гугель)!

    Неужели ты правда такой непробиваемый, или у тебя блог комментарии не в том порядке выводит?
    Ссылки были даны в ответ на следующие фразы, буквально:
    «1) Значит найти кошку путем вычислений не возможно. «
    «2) можно для развития ссылку про распознавание лиц в два шага?»
    «3) … Ведь охранник физически не может следить за десятками камер.»
    «4) … но почему–то ни одного реализованного проекта [распознавания людей в камерах] нет»
    Где там что–то про «картину в целом», я пропустил?

    А про картину в целом я тут тоже активно писал. Поищи. Суть в том, что общее направление исполнения качественного ИИ вполне известно, и ИИ этот приходит к нам уже сегодня. Остается только ждать постепенного скалирования на все более сложные задачи и необходимых для этого ресурсов.

  149. Ffokcuhz:

    ладно, с намеками у тебя туго, это мы уже разобрались, закроем тему.

    Направление — есть. Но где реализация? До сих пор даже обучающая классификация в ГИС–пакетах, даже с нейронными цепями, даже с автоматизированным составлением мозаик с выравниванием по характеристикам не дает нормальный результат. Все равно надо обрабатывать напильником. Что уж говорить о попытках полностью автоматизированного анализа?.. Ведь сих пор даже в фотошопе нет кнопки «сделать все супер».

    А по различию планов у человека в лаборатории аэрокосмических методов нам показывали просто эксперимент. Брались две вебкамеры с базисом 7–8 см и наводились на пару одинаковых объектов с расстоянием 2 (второй объект в два раза дальше). Результат выводили на экран в виде перспективного изображения (анаглиф, светозатвор или d3d). И предлагали все смотреть то на экран, то на предметы своими глазами. Эффект интересный — на экране изображение очевидно в перспективной проекции, а вот глаза видят предметы одинакового размера. Даже с одной веб–камерой будет эффект, но не такой яркий (нет «глубины»).

  150. Rumj:

    про горизонтали я не совсем понимаю. Имеешь пространственную поверхность как на картинке в клипе. Меряешь высоты трёх точек. Выравниваешь по ним поверхность и «нарезаешь» на горизонтали. Не получится?

  151. Peels:

    Но где реализация?
    Классификация спама, автоматизированные рекомендации музыки, кино, лекарств, развлечений, всего и вся; вышеупомянутые CCTV, распознавание лиц, которое теперь в каждом фотике, вебкамере и пикасе, распознавание изображений, номеров автомобилей, реконструкция трехмерных изображений по фотографиям, автоматизированные анализы различного рода данных, DARPA challenge с автомобилем, кучи роботов, которые начали убедительно ходить на четырех и уже вот–вот на двух ногах, распознавание речи, которое стало в разы лучше, Google Translate, который потихоньку растет, Watson, WolframAlpha, да и сам Google Search наконец — это все вышло на рынок ЗА ПОСЛЕДНИЕ 10 ЛЕТ, а многое из этого даже за 5. Это же уже даже не смешно.

    Да, распознавание образов пока не идеально, да оно требует напильника, но оно развивается с нереальной скоростью. И началось это развитие аккурат вместе с увеличением количества места на жестких дисках и с распространением моды на статистические методы, которые в общем–то лежат и в основе человеческого интеллекта.

    Все равно надо обрабатывать напильником.

    Ну и что? При необходимости и эту вот «обработку напильником» можно было бы автоматизировать, да очевидно не нужно это, ибо затраты на автоматизацию пока в разы больше чем на ручную работу. Это не значит что «никто не знает» как это сделать.

    полностью автоматизированного анализа

    Есть куча вещей, который за последние годы перешли в рамки «полностью автоматизированного анализа». Автофокус в мыльнице, множественные Intrusion Detection Systems типа тех же CCTV, электроника в автомобилях, самолетах и кораблях, голосовые меню в call–центрах, скоростные камеры на дорогах, системы слежения и управления за трафиком, уже упомянутая DARPA challenge проехавшая 100 миль полностью автономно, тот же спам фильтр, «умные дома», радарные системы, медицинские системы слежения за пациентом, …
    Опять же, большинство из этого вышло на качественно новый уровень буквально только что. И чем дальше, тем больше человеческих заданий будут перенимать на себя автоматы. Ты думаешь что это будет «не настоящий ИИ»? А вот хрен. Настоящее некуда.

    даже в фотошопе нет кнопки «сделать все супер».

    У пикасы есть такая кнопка, и че. Да и фишка–то этой кнопки не в том, что ее «сложно сделать», а в том, что нет общего понимания того, что она должна сделать.
    Конечно же, если ты хочешь иметь кнопку, которая по функционалу будет соответствовать профессиональному фотошопщику, то соизволь для начала предоставить соразмерный хардвер, а так же спецкурсы обучения для гипотетического искуственного интеллекта, который заучит петабайты информации о том, что ты понимаешь под словом «супер».

    А по различию планов у человека в лаборатории аэрокосмических методов нам показывали просто эксперимент.
    То, что ты описываешь — банальная иллюзия, пример которой я тебе уже привел на картинке выше. То, что твой мозг интерпретирует изображения соответственно перспективе не означает что глаза их «видят» как–то «ортогонально». Видят они их так же как и камера. Прищурься и постарайся абстрагироваться от наличия глубины изображения и ты увидишь что на деле объекты на сетчатке у тебя разного размера.

    И в любом случае эта иллюзия никак не относится к вопросу ИИ.

  152. Ffokcuhz:

    ок, сойдемся на том, что ты формализуешь любые понятия. Даже, наверное, написание музыки и эстетику ландшафта. Считаю спор закрытым по причине полностью разных взглядов на ИИ и на работу мозга. Я другие книжки читаю.

  153. Ffokcuhz:

    я уже где–то вышел писал, что автоматизированное построение горизонталей при всех возможных алгоритмах не дает физиономичность местности. Для построение хотя бы чего–то похоже пока что нужна избыточность сетки, где–то на порядок относительно масштаба создаваемой карты. Соответственно, чтобы создавать такую сетку, нужны того же уровня данные. Их можно получить только при аэросъмке, что слишком дорого. И это тоже предметы отдельных исследований, есть даже компактные реализации — беспилотники, например. Но все слишком дорого для массового применения. У нас на кафедре пишут кандидатские и докторские на тему интерполяции и экстраполяции данных. Пытаются добиться по одинаковым данным картинки, схожие с представление человека о физиономичности местности. Только вот решение в итоге лежит где–то между этими алгоритмами и системой распознавания образов на снимке, а эти две системы никак не могут скрестить.
    А главный затык вообще во всех областях автоматизации — это всегда деньги. Принципы и алгоритмы есть, но они слишком затратны при реализации. Либо ждем удешевления вычислительных мощностей, либо оптимизируем алгоритмы.
    Об этом всем даже Peels говорит, но как–то сам этого не осознает, настаивая на том, что все уже придумано и можно расслабиться.

  154. Ffokcuhz:

    и вообще я как раз говорил о том, что мозг перестраивает изображение. И поэтому мы живем в мире оптических иллюзий, хнык–хнык.

  155. Peels:

    Об этом всем даже Peels говорит, но как–то сам этого не осознает

    Да нет, я тебе тут очень даже осознанно и прямым текстом талдычу, что проблема не в каких–то принципиальных «никто не знает как» и «никто не понимает» а тупо в ресурсах и времени. А ты тут заладил про «это еще никому неизвееестно, понятно КАК но неясно КАКИМ ОБРАЗОМ», итд.

    И я рад что ты в конец концов пришел к тому, что я тебе хотел сказать: принципы и алгоритмы есть. Остальное — дело времени.

    Либо ждем удешевления вычислительных мощностей, либо оптимизируем алгоритмы.

    На самом деле «ждать» нужно в первую очередь данных. Много данных. Чистых, хороших, понятных данных из реального мира, а так же значимых статистических моделей поверх этих данных. Алгоритмы и вычислительные мощности даже не столь критичны.

  156. Peels:

    Даже, наверное, написание музыки и эстетику ландшафта.

    Т.е. по–твоему это мистические понятия, которые невозможно вложить в компьютер?
    А то, что компьютер с годами умеет генерить все более и более качественную музыку тебя не смущает? Или то, что Сони выпустила в прошлом году к своим мыльницам приблуду, которые распознает «удачные кадры» (пусть не ландшафт а люди, но все же)? Почитай правильные книжки уже.

  157. Peels:

    Мозг не «перестраивает» изображение (в смысле каких–то там «проекций»), а интерпретирует его, разбивая на компоненты. То же самое делают современные системы обработки изображений. Они тоже живут в мире иллюзий (причем у них иллюзии похуже наших будут).

  158. Ffokcuhz:

    ну, данные тоже дорогие. Либо пилим дальше алгоритмы, либо пытаемся получить данные дешевле. Это два совершенно разных пути.

    Просто ты не разделяешь понятия «когда–нибудь реализуют» и «уже реализовано». Я считаю, что если невозможно что–то сделать при текущих возможностях, то проблема не решена. Это как если бы шахтеры с мотыгами пытались пробуриться в кимберлитовую трубку, рассуждая, что вот если бы у них была мееееегамотыга, они бы эту трубку за 3 дня расковыряли.
    «Нельзя сейчас» = «Не знаем», вот как вижу все эти теоретические выкладки.

  159. Ffokcuhz:

    а перестраивание по планам — это разве не интерпретация?

  160. Rumj:

    кстати, некоторое время назад у меня были мысли, что если эволюция поднялась с биоорганизмов в мир идей, то массивы данных это накапливающаяся «нефть» в мире идей.

  161. Ffokcuhz:

    давайте теперь еще Ноосферу пообсуждаем 🙂

  162. Peels:

    К «ортогональной проекции» это никакого отношения не имеет.

  163. Peels:

    «Нельзя сейчас» = «Не знаем», вот как вижу все эти теоретические выкладки.

    По–дурацки видишь. «Я в лесу и я не знаю куда идти» и «я на шоссе, мне идти прямо пятьдесят километров» — это две качественно разные ситуации, и не надо их путать.
    Пример с шахтерами нелеп, ибо шахтерам нужен качественно новый инструмент. По вопросу ИИ же ничего качественно нового не нужно, мегамотыга уже есть, просто трубка большая.

    Вот сто лет назад действительно «не знали» как сделать ИИ…

  164. Ffokcuhz:

    Peels, с тобой очень сложно. Оставайся и дальше непогрешимым, сворачиваем разговор, неинтересно.

  165. Peels:

    А с тобой офигенно интересно: «Это сделать невозможно, потому что это ПОКА НИКТО НЕ ЗНАЕТ КАК». Ну чего сказать: сиди, грусти, не знай, сворачивай.

Добавить комментарий