Все о фотобанках и микростоках, купить и продать фото, работа для фотографа и иллюстратора


Ответ Правила нашего форума>
 
Опции темы Поиск в этой теме
Старый 09.04.2010, 08:26   #61
Старожил
 
Аватар для Sofka_4
 
Регистрация: 23.03.2009
Адрес: Россия, Москва
Сообщения: 1,571
Репутация: 2611
Оставлено благодарностей: 5,494
Получено благодарностей: 2,644
По умолчанию Re: Он знает все :)

Мой ребенок перезагадал всех своих любимых трансформеров, - угадал ВСЕХ с первого раза!!!
Я уже пятилетку слушаю спиной эти жуткие для меня имена (я работаю, сын - смотрит), так до сих пор отличить одного от другого не могу, несмотря на усиленную рекламу и пропаганду)))

Мы - в восторге!!!)))
Sofka_4 вне форума   Ответить с цитированием
Старый 09.04.2010, 08:37   #62
Старожил
 
Аватар для Sofka_4
 
Регистрация: 23.03.2009
Адрес: Россия, Москва
Сообщения: 1,571
Репутация: 2611
Оставлено благодарностей: 5,494
Получено благодарностей: 2,644
По умолчанию Re: Он знает все :)

Слушайте, догадка на счёт телепатии: может он сканирует систему, узнаёт наши запросы в поисковиках, составляет себе наши пристрастия.... и отвечает.....
Мне кажется, если мысль о телепатии посетила многих, есть какое-то этому объяснение.

Меня, например, не спрашивал в задуманном Колобке про железо, а сына - 3-ий вопрос, честно!!!
Причём, сын зашел в под моим ником....(это разбежка с моей теорией). (ЗЫ вставка - и под своим ником заходил, сейчас увидела).

И на задуманном Винни-Пухе про коричневый цвет был 5-6-ой вопрос. Ну почему бы ему не спросить меня про железо??? Не спрашивал!!!

Последний раз редактировалось Sofka_4, 09.04.2010 в 08:49.
Sofka_4 вне форума   Ответить с цитированием
Старый 09.04.2010, 09:24   #63
Завсегдатай
 
Аватар для mamadu
 
Регистрация: 02.02.2010
Сообщения: 241
Репутация: 214
Оставлено благодарностей: 116
Получено благодарностей: 204
По умолчанию Re: Он знает все :)

Цитата:
Сообщение от Sofka_4
И на задуманном Винни-Пухе про коричневый цвет был 5-6-ой вопрос. Ну почему бы ему не спросить меня про железо??? Не спрашивал!!!
Потому, что вы отсеяли большую часть железных персонажей предыдущими ответами.

Я думаю, каждым очередным вопросом система стремиться разделить оставшиеся подходящие варианты на как можно более равные половины и как можно более чётко, т.е. по признаку, где люди отвечают уверенно "да" или "нет".

UPD: Не в вашем случае, но теоретически может быть и другой вариант. Среди оставшихся персонажей так много железных, что знание о железности - ничего особенного не даёт. Т.е. есть лучший признак, разделяющий оставшихся чётче и на более равные части.

Последний раз редактировалось mamadu, 09.04.2010 в 09:44.
mamadu вне форума   Ответить с цитированием
За это сообщение сказал спасибо:
Sofka_4 (09.04.2010)
Старый 09.04.2010, 09:42   #64
Старожил
 
Аватар для Sofka_4
 
Регистрация: 23.03.2009
Адрес: Россия, Москва
Сообщения: 1,571
Репутация: 2611
Оставлено благодарностей: 5,494
Получено благодарностей: 2,644
По умолчанию Re: Он знает все :)

Алгоритм как раз понятен. Но первые 5-6 вопросов настолько общи (реален-не реален, половая принадлежность...), что железо и коричневый цвет - на равных.

Сейчас Наоми Кэмбел (что для моих пристрастий совершенно не свойственно) была отгадана на 10-ый вопрос, причем порно-актриса -7-ый, маникенщица -8-ой вопрос.
Других профессий не существует?
МужУки - певцы, актеры, политики, писатели, а женщины - порно-актрисы, маникенщицы????....
Sofka_4 вне форума   Ответить с цитированием
Старый 09.04.2010, 10:07   #65
Старожил
 
Аватар для alphacell
 
Регистрация: 23.09.2008
Адрес: Украина
Сообщения: 1,003
Репутация: 857
Оставлено благодарностей: 474
Получено благодарностей: 851
По умолчанию Re: Он знает все :)

Если чесно, то ничего он не сканирует. И это чистой воды математика: а точнее ее раздел комбинаторика. Принцип работы сего всезнайки основан на Баесовской модели, в основе которой лежит описание знаний с помощью распределений случайных величин с последующим преобразованием априорных знаний в апостериорные на основе наблюдений при помощи знаменитой формулы Байеса. Более того, такой подход является единственным обобщением классической алгебры логики на случай неопределенности. Это наводит многих ученых на мысль, что Байесовский подход является эталоном рационального мышления.
Итак, формула Байеса: P(A|B) = P(B|A)P(A)/P(B). А теперь словами. Пусть нам нужно оценить вероятность того, что произошло событие A, при условии, что событие B точно произошло (то есть мы его гарантированно пронаблюдали; именно поэтому B часто называют наблюдением). По формуле Байеса эта вероятность пропорциональна произведению двух других. Первая из них, P(B|A), называется правдоподобием и показывает, с какой вероятностью событие B происходит при условии, что произошло A. Второй множитель, P(A), — это так называемая априорная вероятность события A, то есть вероятность, что оно в принципе произойдет (вне зависимости от B). По сути, эта вероятность отражает информацию, которую мы знали об A до того, как узнали о том, что произошло B. В знаменателе формулы также присутствует величина P(B), которая в данном случае просто играет роль нормировочного коэффициента и может быть проигнорирована.

Использовать эту формулу в контексте игры в вопросы довольно легко. Пусть Ai — это событие вида «вы загадали объект i», где i может быть как Споком, так и Девой Марией. Поскольку B — это наблюдение относительно Ai, то естественно было бы считать, что B состоит из ответов на вопросы. Единственный вариант, который я тут вижу, — это представить B в виде совместного события «На вопрос Q1 был дан ответ A1, ..., на вопрос Qk был дан ответ Ak». Тогда P(Ai|B) будет для объекта i показывать вероятность того, что был загадан именно он (с учетом того, что пользователь дал ответы на k вопросов). Это именно та величина, которая нас интересует. Выбрав объект с максимальным значением P(Ai|B), можно, если значение P(Ai|B) достаточно велико, попробовать использовать его в качестве догадки.

Априорную вероятность P(Ai) можно рассматривать как частный случай P(Ai|B) при k=0. Иначе говоря, это вероятность, что игрок загадал объект i при условии, что вопросов задано не было, и мы вообще ничего не знаем. С одной стороны, можно было бы дать всем объектам равные P(Ai), т.к. это честно. С другой стороны, Барака Обаму наверняка будут загадывать намного чаще, чем Холдена Колфилда. Поэтому при прочих равных (то есть когда мы не можем различить объекты), следует выбирать именно Обаму. Следовательно, естественной оценкой P(Ai) будет отношение числа игр, когда был загадан X, к общему их числу.

Правдоподобие P(B|Ai) тоже получает удобную интерпретацию. Только прежде нужно предположить условную независимость ответов на вопросы при условии Ai (несколько грубое, но очень удобное упрощение). В переводе на русский это значит, что по предположению вероятность P(B|Ai) может быть записана в виде произведения (по j) вероятностей P(Bj|Ai), где Bj — событие вида «На вопрос Qj был дан ответ Aj». P(Bj|Ai) в этом случае будет отношением числа раз, когда при загаданном объекте i на вопрос Qj был дан ответ Aj к числу раз, когда при загаданном объекте i в принципе был задан вопрос Qj. В целях избежания нулевых и неопределенных вероятностей нужно дополнительно считать, что изначально на каждый из вопросов каждый из вариантов ответов был дан по разу. То есть в случае, если вопрос Qj еще ни разу не задавался об объекте i, P(Bj|Ai) будет равно 1/Nj, где Nj — число вариантов ответа на вопрос Qj (к примеру для всех вопросов одни и те же 4 варианта ответа: «да», «нет», «не знаю» и «возможно частично»).

Результатом есть простая формулу, которая отображает набор пар вопрос/ответ и некоторую сущность в вероятность, что при данных ответах на вопросы была загадана именно эта сущность. Пересчитав эту вероятность для всех объектов в нашей базе данных после ответа на новый вопрос можно видеть, какие из них больше похожи на загаданный объект на настоящий момент. Более того, обучение нашей модели реализуется довольно просто: нужно просто для каждой сущности в базе хранить информацию о том, какие вопросы про нее задавались и сколько ответов каждого из типов дали пользователи. После каждой игры эту информацию можно обновлять, основываясь на ответах пользователя. Также, для учета «популярности» персоны в базе нужно хранить число раз, которое персона была загадана.
alphacell вне форума   Ответить с цитированием
За это сообщение сказали спасибо:
boroda (09.04.2010), Igonet (09.04.2010), Sofka_4 (09.04.2010), Лаванда (09.04.2010), Сергей_М (09.04.2010)
Старый 09.04.2010, 10:25   #66
Модератор
 
Аватар для boroda
 
Регистрация: 11.12.2006
Адрес: Россия
Сообщения: 18,888
Репутация: 10374
Оставлено благодарностей: 3,231
Получено благодарностей: 10,207
По умолчанию Re: Он знает все :)

Пошел за стаканом...
boroda вне форума   Ответить с цитированием
За это сообщение сказали спасибо:
fotosergio (15.04.2010), MrMojo (09.04.2010), Sofka_4 (09.04.2010)
Старый 09.04.2010, 10:30   #67
Старожил
 
Регистрация: 23.12.2008
Сообщения: 4,911
Репутация: 2804
Оставлено благодарностей: 1,329
Получено благодарностей: 2,792
По умолчанию Re: Он знает все :)

alphacell, я думаю там действительно достаточно сложная самообучаемая соз, а не примитивная вероятностная модель.
Цитата:
С другой стороны, Барака Обаму наверняка будут загадывать намного чаще, чем Холдена Колфилда. Поэтому при прочих равных (то есть когда мы не можем различить объекты), следует выбирать именно Обаму.
Тогда вместо всяких редких персонажей отгадывал бы всяких Обам
sailorr вне форума   Ответить с цитированием
Старый 09.04.2010, 10:34   #68
Старожил
 
Аватар для alphacell
 
Регистрация: 23.09.2008
Адрес: Украина
Сообщения: 1,003
Репутация: 857
Оставлено благодарностей: 474
Получено благодарностей: 851
По умолчанию Re: Он знает все :)

Цитата:
Сообщение от sailorr
alphacell, я думаю там действительно достаточно сложная самообучаемая соз, а не примитивная вероятностная модель.

Тогда вместо всяких редких персонажей отгадывал бы всяких Обам
При условии что все эти разные Обамы есть в базе знаний этой "Акинаторской" нейронной сети. Она же самообучается и дейсвительно есть вероятность заполнить ее вымышлеными персонажами (теми же выдумаными Обамами).
Сама вероятностная модель используются для принятия решений, а вот самообучение естесвенно при помощи нейронки происходит.
alphacell вне форума   Ответить с цитированием
Старый 09.04.2010, 10:47   #69
Завсегдатай
 
Аватар для mamadu
 
Регистрация: 02.02.2010
Сообщения: 241
Репутация: 214
Оставлено благодарностей: 116
Получено благодарностей: 204
По умолчанию Re: Он знает все :)

Представьте, что есть три признака. Длина, ширина, высота. Каждый может принимать значения - от маленького до большого. И в этом трёхмерном пространстве признаков - существуют объекты. Допустим, объекты имеют положения по трём осям (Т.е. имеют ещё три признака-положения, т.е. всего шесть)

Эксперты (сами юзеры) наполняют базу, сообщая системе значения признаков для объектов. Смотрят они на пространство к примеру так, что длина им не очень видна, поэтому эти сведения сильно разнятся.

Как определить загаданный объект побыстрее?
Поскольку представления о размерах у всех немного разные и маленький - может значить просто маленький, а может - исчезающе-маленький, а несколько огромных объектов имеет надпись - "маленький" поперёк, - то сначала следует спросить о положении. И если все объекты расположены примерно в горизонтальной плоскости - вопрос "выше-ниже" задавать бессмысленно.

Представьте, что мы узнали о положении - СЛЕВА.
Теперь представьте, что слева расположены только 3 объекта примерно одной ширины.
Два из них - очень близко, один очень далеко, но все три (хоть и не таких разных высот) эксперты по высоте никогда не путали.

Если вы спросите о положении - вам может повезти и ответ будет далеко, но можете остаться и с двумя объектами на выбор. Но если вы спросите о высоте - вы получите готовый ответ.

Вам остаётся спросить о значении признака, сведений о котором в базе не хватает (гистограмма распределения ответов очень негладкая) и если вы угадали - дополнить базу ответами игрока в качестве экспертных.

А юзер - тем временем удивляется, - почему его не спросили о ширине. (Ещё юзер может гадать, почему его не спросили "красный ли объект?". Но красных слева вообще нет или они все красные, или красный - только один из сотни тех, что слева, - и вряд ли загадали именно его)

Вот в общем-то и всё, за исключением того, что пространство признаков - не шестимерное, как здесь, а гораздо более-.

Последний раз редактировалось mamadu, 09.04.2010 в 11:04.
mamadu вне форума   Ответить с цитированием
За это сообщение сказали спасибо:
Sofka_4 (09.04.2010), Сергей_М (09.04.2010)
Старый 09.04.2010, 10:56   #70
Старожил
 
Аватар для Sofka_4
 
Регистрация: 23.03.2009
Адрес: Россия, Москва
Сообщения: 1,571
Репутация: 2611
Оставлено благодарностей: 5,494
Получено благодарностей: 2,644
По умолчанию Re: Он знает все :)

Цитата:
Сообщение от boroda
Пошел за стаканом...
Пошли вместе))))
Sofka_4 вне форума   Ответить с цитированием
Ответ


Здесь присутствуют: 1 (пользователей - 0 , гостей - 1)
 
Опции темы Поиск в этой теме
Поиск в этой теме:

Расширенный поиск

Ваши права в разделе
Вы не можете создавать темы
Вы не можете отвечать на сообщения
Вы не можете прикреплять файлы
Вы не можете редактировать сообщения

BB-коды Вкл.
Смайлы Вкл.
[IMG] код Вкл.
HTML код Выкл.
Быстрый переход

Похожие темы
Тема Автор Раздел Ответов Последнее сообщение
Sxc.hu - почти Stockxpert, но не он? boroda Stockxpert 17 26.02.2025 05:13
Стоит ли грузить все картинки на все стоки или лучше выборочно? SONY Другие вопросы 38 19.01.2010 15:57
Стоковый профи - кто он? anyunov Курилка 5 06.01.2009 15:07
Как он это делает? Ornitopter Другие вопросы 13 25.06.2008 15:42
Canon 6D (он же Canon 5D Mark II, он же Canon 7D) val_th Инструментарий 29 20.05.2008 11:44


Часовой пояс GMT +4, время: 15:40.


©2006-2010 Microstock.ru   Powered by vBulletin® Copyright ©2000-2008, Jelsoft Enterprises Ltd.   Перевод: zCarot