![]() #литература #критика #ссылки #вопрос
(Да, автор достаточно известный, сам-то давно знаю, но я не могу не поделится с теми, кто ещё не в теме!:) Тэк-с, кажется, я достаточно отошёл от ржача и поднял себе настроение до 9000. Мир вокруг теперь кажется, светлым, ярким, чистым, удивительно разумным, рациональным, постижимым и логичным. Вы хотите испытать подобное чувство, которое - почти что тень просветления? Тогда ТЫК! Это книга написана на острую политическую тему, если не ошибаюсь, за две недели, одним из самых гениальных авторов современности! Также вы можете почитать про: Эффект комара Битву за Берлин и за Европу Попаданца в пчелу Витязей-клонов Настоятельно рекомендую регулярно посещать эту страничку и просветлять свой ум одним из самых адских угаров на нашей планетке. Обратите внимание на объём произведений, и да пребудет с вами гиперплазма! Вопрос к знатокам: современный текстогенераторы позволяет такое? Мне кажется, что нет, но сам не знаток. P.S. Все просветлившиеся ставят мимимишки. 8 августа 2014
2 |
![]() |
|
Ты сам понял, что сказал? У меня настроение г**но! У меня комп на****ся, какое тут хорошее настроение!?!?!!!??
|
![]() |
Marlagram Онлайн
|
Вы таки причастились к Рыбке...
Сочувствую. |
![]() |
Матемаг Онлайн
|
Silent Soulsman, ??
Marlagram, я уж давно, если со времён "рыбачулек", или как они там:) Просто сейчас в очередной раз заглянул и причастился к трешу и угару адской бездны. Настроение вот себе поднял. Захотелось поделиться. Ня?:) |
![]() |
|
Хех, да, на текстогенератор весьма похоже.
А что до сего... уважаемого господина... слышал, слышал про него. Но не читал. |
![]() |
|
Смотрю, автору нужно возобновить курс лечения.
|
![]() |
Матемаг Онлайн
|
romanio, насколько похоже? Глянь, плиз, ещё на его ранние тексты, они, как ни странно, чуть адекватней.
Cheery Cherry, текстогенератор + художественная обработка? Генрих Крамер, ему уже давно как. Не один и не два года пора возобновить. Но... |
![]() |
|
Мы на "ты" вроде.
Ага, гляну. |
![]() |
Матемаг Онлайн
|
На "ты", на "ты", это я путаюсь, поправил.
|
![]() |
|
Мда, чем-то саморекламу напомнило.
|
![]() |
Матемаг Онлайн
|
Хехе, моя страничка указана в профиле. Кстати, да, надо завести ещё фейкоклон и рекламировать Рыбаченко. Именем Тзинча!
|
![]() |
|
ахахах, я могу вам посоветовать еще две книги одной серии (не помню какая из них первая)
Несгибаемый Сталинатор! http://samlib.ru/r/rybachenko_o_p/terror2-54.shtml Звездный терминатор! http://samlib.ru/r/rybachenko_o_p/terror2-55.shtml Наслаждайтесь..... :D |
![]() |
Матемаг Онлайн
|
Эти более старые. Чем старше, тем чуть-чуть адекватней:)
|
![]() |
Матемаг Онлайн
|
Сколько книг просмотрели? Я вот ни в одной не добрался так далеко, чтобы судить о сюжете - то ржач, то тошнит, то зевота. Текстогенераторы, вроде бы, не умеют в сюжет.
|
![]() |
Матемаг Онлайн
|
"что уж проще самому побредить" - скорость написание нереальная. И объём текстов.
"с базами знаний" - хмн, нейросеть обучить на это дело, может? Должно быть быстрее. И ближе к естеству, хех. Только как обучать?.. |
![]() |
Матемаг Онлайн
|
Надо поподробнее погуглить, экспертные системы с базами знаний - даже не интересовался ими.
Я о том же. Хз как. |
![]() |
|
Экспертные системы? Почему экспертные? (Может, я просто термина на русском не знаю) У меня после курса по базам знаний, ....семантической Сети и ...дескриптивной, наверное, логике (кажется, на русском это всё зовётся не так :-D) сложилось впечатление, что на этом далеко не уедешь. Интересного, чтобы понапрягать мозги, вы там тоже не встретите, по крайней мере если не полезете в имплементацию - кванторы да операции на множествах. Последующие проекты меня тоже не убедили, что на самом деле это очень интересно )
Показать полностью
Видела ...короче, unsupervised метод, который искусственно превратили в supervised (на русском, кажется, "без учителя"/"с учителем"). В нём, чтобы иметь положительные и отрицательные примеры, берем имеющиеся тексты и рассматриваем их по пять последовательных токенов ("вот так , например .sent"). Берем среднее слово и выставляем, что оно *умеет* встречаться в таком окружении (положительный пример). Берем одно произвольное слово из лексикона и выставляем ему для этого окружения отрицательный пример - типа так нельзя. Из-за того, что словарь огромен, нам почти всегда будет везти и мы будем строить настоящие отрицательные примеры. Это я совсем недавно встретила, понравилось. |
![]() |
Матемаг Онлайн
|
Вроде так. А может, вы что-то иное имеете в виду. Экспертные - потому что ответ на запрос как эксперт. На виду всякие "Акинаторы" да "виртуальные врачи".
"почти всегда будет везти" - это не приведёт к некорректному обучению, когда часть корректных фраз будет сочтена некорректными? |
![]() |
Матемаг Онлайн
|
Cheery Cherry, тогда что? Генетические алгоритмы? Как называется принцип, лежащий в генерации текстов с помощью баз знаний?
"ей нужно уметь выражать то, что она думает" - хех, не всегда. Если ей тупо вводят, например, симптомы, и ожидают в ответ получить название болезни, то зачем общение? "очень-очень мало фраз" - что-то сомневаюсь, что очень-очень мало. Лучше бы, имхо, вручную настроить несколько шаблонов "плохих" сочетаний. Каждому будет соответствовать дохреналлион выборок из словаря. Хмн, мне вот интересно, а базы лексических ошибок существуют? Если да, то даже париться не надо. Чорт, в голове вертится, где бы они могли существовать, но достать не могу:( |
![]() |
|
Никак не называется. У всех по-разному может быть. У нас был типа детский проект, мы делали так: началом истории служит состояние мира (заданные какие-то объекты, отношения: Петя сапожник, Маша учительница, Петя и Маша женаты), дальше согласно вероятностному распределению для именно этого мира применяется одно из правил обновления (например, скажем, мы сами написали: если есть люди X и Y, находящиеся в отношении женаты, то с вероятностью в 0.4 у них рождается ребёнок). База знаний нужна для элементарных выводов, чтобы руками не писать каждый раз, что Петя не только сапожник, но ещё и человек, и что лягушонок у Пети и Маши родиться не может)) До полноценного текстового уровня мы не доводили, проект был совсем коротенький, но более-менее понятно, что когда у нас есть эти обновления, то есть мы знаем, что хотим сказать, найти способ, *как* это сказать, можно.
Показать полностью
Хотели ещё посмотреть, нельзя ли все эти обновления и стартовые состояния мира как-нибудь не руками делать. Но это обещало работать не очень. Например, в другом проекте строили онтологию по текстам, мусора было-о-о... Генетический алгоритм - в некоторых системах приделывать можно, хорошо работать не будет. Если ЭС не готова сказать диагноз, она должна спросить, "а не беспокоит ли вас ещё вот это?" Или: "как именно вас беспокоит это?" Это возникло как раз в идее как можно меньше работать руками (глубокое обучение). На удивление, оно хорошо работает. Относительно всех наблюдаемых контекстов и размера словаря - да, промахов будет не много. Смотря что вы имеете в виду под лексическими ошибками. Обычно смотрят, что из введенного текста не входит в словарь, и подчёркивают это как лексическую ошибку. Какое слово ближе всего к введенному по той или иной метрике, то и предлагают как заменитель. Ну, можно сохранить информацию о том, какие ошибки пользователей исправлялись на какие правильные варианты. ...Мне надо убегать, отправлю что есть сейчас =) |
![]() |
Матемаг Онлайн
|
Любопытно, на самом деле.
"отправлю что есть" - а есть ещё? Расскажите!:) |
![]() |
|
Да, расскажите.
Черт, была у меня статья с хабра, но посеял... :( |
![]() |
|
Есть стандартный подход к работе с текстами - bag of words. У нас есть, скажем, три тысячи новостных статей. Мы смотрим, сколько разных слов в них встречается. Не помню, какая цифра будет реалистичной, поэтому пусть N. Дальше берем первую статью и смотрим на первое слово в списке - пусть это "абрикос". В нашей статье слово "абрикос" не встретилось ни разу, ставим ноль. Дальше слово "арбуз", оно встретилось два раза, ставим два. Так пробегаем по всем словам и получаем вектор (0, 2, ...), с которым мы связываем всю статью. Большинства известных слов в статье нет - по большей части в векторе нули. То есть мы ворочаем огромными размерностями абсолютно понапрасну. Вдобавок, когда слов и статей много, получаем "проклятие размерности" - разница между двумя в корне разными статьями становится не такая уж и большая, как векторы они обе слишком близки к нулю. И что ты на такой модели ни строй, всё будет плохо работать ))
Показать полностью
Одна из очень удачных идей современного NLP - работать с векторами, которые будут состоять не из целых, а дробных чисел. Эти векторы строить по встретившимся контекстам конкретного слова. Как строить - есть разные способы. Правда, каждая отдельная координата уже не будет представлять собой какой-то признак, о котором мы будем в курсе; но зато-о-о оказывается, что мы очень сильно выигрываем в размерности, слова более-менее группируются по частям речи, и даже можно так всё сделать, что вектор для "столы" минус вектор для "стол" будет примерно тем же, что и "стулья" минус "стул"; можно отловить даже по смыслу - частное минус общее сохраняется, а "принцесса" плюс "король" даёт "королеву" )) |
![]() |
Матемаг Онлайн
|
*задумался, осмысляя*
|
![]() |
|
(Просто это тоже интересно, по-моему)
|
![]() |
Матемаг Онлайн
|
Да.
|