[image]

Искуственный Интеллект

 
1 2 3 4
+
-
edit
 

=KRoN=
Balancer

администратор
★★★★★
au>Да ты чего, Крон? Картошка растёт в дикой природе без проблем

И ты хоть раз в жизни видел такую?

au>Наша биологичка в школе клеймила нас "детьми балконов". Вот, Крон, ты и выдал себя :)

Между прочим, я до 17 лет в городах только в гостях изредка бывал... Счёт той же картошки, свёклы добытых мною, полагаю, на тонны идёт. Сосен одних больше 70 штук посадить довелось... А вот про биологичку вашу ты сказать тоже сможешь? :D

au>Мой компутер целенаправленно создан с нуля по замыслу разработчиков.

Картошка (которую ты кушаешь) тоже создавалась, пусть и не с нуля, но по замыслу "разработчиков". При чём - многих поколений "разработчиков"... Как и собаки, лошади и прочие розы.

au>Для каждого проекта свои инструменты, но суть одна: замысел + технология производства + сырьё.

Ну так и чем это противоречит пользе ИИ и ИР?
   

au

   
★★
au>>Да ты чего, Крон? Картошка растёт в дикой природе без проблем
=KRoN=>И ты хоть раз в жизни видел такую?

Нет, местность не та. В Америке её смотреть надо, в естесственной её среде. Но видел прочего всякого много в диком виде, что раньше только на картинках смотрел.

=KRoN=>Между прочим, я до 17 лет в городах только в гостях изредка бывал... Счёт той же картошки, свёклы добытых мною, полагаю, на тонны идёт. Сосен одних больше 70 штук посадить довелось... А вот про биологичку вашу ты сказать тоже сможешь? :D

Значит ты дитя огородов :) Изоляция от природы тоже будь здоров, хотя и намного ближе к земле :)
После ложного обвинения в том что я бросил карбид в её аквариум, я с ней дипломатические отношения прекратил, и сказать ничего не могу вообще :)

=KRoN=>Картошка (которую ты кушаешь) тоже создавалась, пусть и не с нуля, но по замыслу "разработчиков". При чём - многих поколений "разработчиков"... Как и собаки, лошади и прочие розы.

Она не создавалась, а отбиралась из имеющегося. Определённая заслуга конечно тут есть, но нельзя сравнивать с компом, который сделан из грязи и нефти, а не из похожего компа. Аналогично было бы лишь создание картошки из одной воды и грязи. Поатомно или нет - это уже на усмотрение дизайнера.

=KRoN=>Ну так и чем это противоречит пользе ИИ и ИР?

Это была жёсткая критика профанации науки. Если ИИ - часть науки, то это жёсткая критика профанации ИИ :)
   
RU <кщееш> #25.09.2002 20:31
+
-
edit
 
Очень давно и очень ненадолго пришлось позаниматься этой темой. Обсуждался вопрос обучения как такового. Приобретения опыта и т. д. Я там был как зоопсихолог от лаборатории.
Мало что помню но одну свою мысль помню и изложу.
Некто пытался разбираться с самообучающимися системами. С определенного момента путаница дорастала до полного хаоса. Я тогда подумал, что вот есть вопрос интересный. А если мы возьмем не одну систему, а две - возможно даже идентичные. Через определенное время после запуска программы самообучения - будет ли их "опыт" - одинаков?
Почему-то мне кажется, что нет, особенно в случае нейронных моделей.
(долго обьяснять почему - следующий раз как-нибудь)
Если этот постулат верен, то возможно стоит рассматреть вопрос об одновременном запуске двух систем, связанных между собой в момент запроса решения.
Они нарабатывают свое "самообучение", обе выдают решения, но некая надстройка над ними (собственно оператор - человек) должен делать выбор о том, какое из решений более подходит. Ну, или не человек.

Как ни странно, вспомнилось мне - мозг тоже состоит из двух полушарий, обладающих разными ...не возможностями, а принципами - если тактично так выразиться.
 
RU <кщееш> #25.09.2002 20:37
+
-
edit
 
С.с.п.>Для начала давайте выясним разницу между обучением и самобучение. Я пока плохо представляю разницу между ними, но обязуюсь подумать на досуге.


Обучение -это когда нечто или некто извне закладывает в вас информацию, имея перед собой некие цели.

Самообучение есть, мне кажется, процесс самостоятельного исследования(знакомства) всего подряд или специально(при наличии мотива) с вырабатыванием мнения(ответа).
 

au

   
★★
Tico>Нет проблем размножить обученную софтовую сеть, просто потому что ее параметры и память можно в любой момент сбросить куда угодно и загрузить в другую сеть.

Пространство для решений в софтовой сети на порядки меньше, так что успехов им ;) Что-то не вижу я сетей на каждом углу, а руководство тычет пальцем на кипу публикаций по сетям, и поучает что "ТАК ЖИТЬ НЕЛЬЗЯ!" :) Потому что 95% в них - мусор, а остальное под большим вопросом.
   
+
-
edit
 

=KRoN=
Balancer

администратор
★★★★★
au>Что-то не вижу я сетей на каждом углу

На самом деле, нейросетей сейчас как грязи. От Файнридеров до торпед и ПКР.

au>а руководство тычет пальцем на кипу публикаций по сетям, и поучает что "ТАК ЖИТЬ НЕЛЬЗЯ!" :) Потому что 95% в них - мусор, а остальное под большим вопросом.

Вообще-то странно, так как в массе своей это всё реально работает :)
   

au

   
★★
=KRoN=>На самом деле, нейросетей сейчас как грязи. От Файнридеров до торпед и ПКР.
=KRoN=>Вообще-то странно, так как в массе своей это всё реально работает :)

Крон, ты чувствуешь разницу между "работает" и "применяется"? Так вот за границы нишевых рынков сети проникают слабо. Кроме торпед и файнридеров много примеров?
   
+
-
edit
 

=KRoN=
Balancer

администратор
★★★★★
au>Крон, ты чувствуешь разницу между "работает" и "применяется"? Так вот за границы нишевых рынков сети проникают слабо. Кроме торпед и файнридеров много примеров?

А много ты видишь примеров, где микроскопами забивают гвозди? Там, где нейросети выгоднее - применяют их. Нет - конечные автоматы, например.

А вообще, полагаю, что примеров много. Только потроха таких систем афишируются мало. Например, могу предположить, что в рукописном вводе на моём КПК без нейросетей не обошлось. Небезызсвестный IQ тесты: о чем свидетельствуют результаты исследования? на нейросетях работает. Даже игрушки были, RTS-ка какая-то года 4 назад, то ли KKnD, то ли Total Annohilation - не помню. У военных это всё используется ещё больше и чаще.
   

Tico

модератор
★★☆
=КРоН=>Недавний курьёз слышали? Делали эксперимент по созданию аппаратной автоколебательной нейросети (выдающей периодический сигнал). Всё получилось и работало замечательно. Потом вяснилось, что она за основу взяла несущую какой-то радиостанции, которую ловила на длинные участки монтажа :)

Не, не слышал. Но прикольно :) Сами виноваты, нечего железом клепать - уже давно больсйинство сетей моделируют в софте, именно потому что железо при обучении как правило подсаживается на всякую нездоровую хрень :D

2 ау
Нет проблем размножить обученную софтовую сеть, просто потому что ее параметры и память можно в любой момент сбросить куда угодно и загрузить в другую сеть.
   
Neural networks demystified или как проходило умиление и приходило понимание.

Разделим фазы обучения сети и ее работы после этого, как не имеющие между собой ничего общего и начнем с анализа работы неведомым образом более-менее оптимально настроенной сети. Рассмотрим однослойную сеть (увеличение числа слоев запутает дело, но не изменит основных принципов) и попробуем разобраться нельзя ли описать ее работу в общепринятых терминах обработки сигналов, не поминая всуе никаких загадочных для меня (как не биолога) нейронов-ионов-аксонов вовсе. Что же мы видим. Входной вектор умножается на один набор весов и полученные произведения суммируются давая первый выход сети. Аналогично умножая вход на второй набор весов и суммируя получаем второй выход. Ничего не напоминает? Ну конечно, это всего навсего расчет коэффициентов корреляции между входным вектором и наборами весов нейросети. Вот и все. Сразу становится понятно многое, например почему набор корреляторов (для пущей загадочности названный нейронной сетью) широко используется именно в распознавании образов (просто вычисляют образ наилучшим образом коррелированный с одним из заранее заданных) ну и многие сопутствующие его работе проблемы легко объясняются.

Ах да, пороговые функции и т.д. Но вообще то сравнение с порогом (а как собственно еще решение принимать?), жесткие и мягкие ограничители это важные базовые элементы многих (если не почти всех) сколько нибудь сложных устройств обработки сигналов уже лет почти так 100.

Ну а о так называемом обучении сетей (а это уже ну совсем другая, куда более печальная, история) в следующий раз.
 
+
-
edit
 

=KRoN=
Balancer

администратор
★★★★★
ab>Ну конечно, это всего навсего расчет коэффициентов корреляции между входным вектором и наборами весов нейросети.

В целом, так и есть. Но только в самом примитивном случае однослойной сети.

ab>Ах да, пороговые функции и т.д.

А от пороговых функций работоспособность и обучаемость нейросети зависит едва ли не сильнее, чем от внутренних связей :)
   
+
-
edit
 

Mishka

модератор
★★★
ab>Neural networks demystified или как проходило умиление и приходило понимание.

ab>Разделим фазы обучения сети и ее работы после этого, как не имеющие между собой ничего общего и начнем с анализа работы неведомым образом более-менее оптимально настроенной сети. Рассмотрим однослойную сеть (увеличение числа слоев запутает дело, но не изменит основных принципов) и попробуем разобраться нельзя ли описать ее работу в общепринятых терминах обработки сигналов, не поминая всуе никаких загадочных для меня (как не биолога) нейронов-ионов-аксонов вовсе. Что же мы видим. Входной вектор умножается на один набор весов и полученные произведения суммируются давая первый выход сети. Аналогично умножая вход на второй набор весов и суммируя получаем второй выход. Ничего не напоминает? Ну конечно, это всего навсего расчет коэффициентов корреляции между входным вектором и наборами весов нейросети. Вот и все. Сразу становится понятно многое, например почему набор корреляторов (для пущей загадочности названный нейронной сетью) широко используется именно в распознавании образов (просто вычисляют образ наилучшим образом коррелированный с одним из заранее заданных) ну и многие сопутствующие его работе проблемы легко объясняются.

ab>Ах да, пороговые функции и т.д. Но вообще то сравнение с порогом (а как собственно еще решение принимать?), жесткие и мягкие ограничители это важные базовые элементы многих (если не почти всех) сколько нибудь сложных устройств обработки сигналов уже лет почти так 100.

ab>Ну а о так называемом обучении сетей (а это уже ну совсем другая, куда более печальная, история) в следующий раз.

Можно я поерничаю?

Цифровая обработка сигналов demystified или как проходило умиление и приходило понимание.

Посмотрим на что похож расчет коэффициентов корреляции - смотрим в программу - все сводится к операциям арифметики - сложение, вычитание, умножение, деление. Ну еще степень и сдвиг. Вспомним, что эти через сложение и вычитание можно выразить остальные операции. А + и - еще Пифагор знал. Так что последние тысячи лет это применяется. Ничего нового.
   

SEA

втянувшийся

Нейронные сети - это не просто набор корелляторов - это еще и мощная ассоциативная база знаний с распределенным хранением. Но говорить о живом мозге, что это нейронная сеть, неверно, ИМХО.
В живом мозге можно отчетливо выделить целый ряд функциональных блоков. Таких как:
1. входные сети (к ним сходятся внешние сигналы). Очень различаются для ушей, глаз и т.д. Например, представьте ушные улитки - свитая в спираль трубка. тонкая с одной стороны, и расщиряющаяся к другой. таким образом, ее сечение (и длина окружности) плавно увеличивается. Практически, это анализатор спектра - нейроны соединены по окружности в плоскости сечения. На разных частотах возникает резонанс в разных сечениях;
2. блок построения текущего контекста восприятия (имеет обратнуя связь на входные сети, резко увеличивая точность восприятия);
3. блок управления вектором внимания;
4. аппарат выработки оценок (фактически - эмоций, показывающих отношение индивидуума к оцениваеной ситуации);
5. Целый отдел для абстрактной обработки: блок гипотез, строящий контекст для абстрактных объектов. ищет ответы и решения и в итоге - принимает "свободное" решение что делать;
6. выходные сети - формируют внешний сигнал управления; Они кстати имеют "обратные связи" для контроля и обучения выходной сети

Даже память и то разная по времени запоминания (скорости обучения);

И все эти блоки достаточно хитро соединены длинными связями.
И вообще, еще остались непонятными некоторые принципиальные моменты. Например, использующиеся в технике сети не устраивают принципиально - они используют 1 (однократный во времени) входной вектор и выдают сигнал на 1ом выходе, типа "узнал/не узнал".
Правильнее использовать сети в которих входной вектор представляет из себя множество сигналов каждый со своей амплитудой (спокойно! :) амплитуда может быть задана как в ЧИМ - частотой сигналов). Сеть должна запоминать и реагировать (например, возбуждением какой-то определенной своей области) на разные входные векторы. Разная возбужденная область для разных входных векторов. Чем чаще встречается входной вектор - тем выще уровень возбуждения (опознавания). Такая сеть уже заключает в себе возможность автообучения.

Да всего здесь не перечислишь, не говоря уже о подробном описании.
   
ab>>Ну конечно, это всего навсего расчет коэффициентов корреляции между входным вектором и наборами весов нейросети.
=KRoN=>В целом, так и есть. Но только в самом примитивном случае однослойной сети.

А просто выход одного набора корреляторов на следующий набор кореляторов идет, вот и все. Это собственно и по формуле для расчета выхода видно. Но не всегда это нужно (или может чаще всего не нужно?), для многих задач просто доказано, что корреляция (т.е. однослойка) это просто оптимально (и коэффициенты строго рассчитаны).

ab>>Ах да, пороговые функции и т.д.
=KRoN=>А от пороговых функций работоспособность и обучаемость нейросети зависит едва ли не сильнее, чем от внутренних связей :)

Вообще обучаемость нейросети это совсем другая песня, очень печальная (неспроста например в связи с обучением часто генетические алгоритмы упоминаются, которые по сути просто вариант случайного поиска). А что до важности порогов абсолютно в любом деле, так сдвиньте порог обнаружения в рлс и тоже либо ничего не увидите, либо сплошь помехи пойдут. Потому то он там и адаптивный и сравнивается с картой помех и т.п.(можно сказать сто рлс обучается?). Или поменяйте пороги в эдсу су-27. Только вот для рлс (и других стандартных методов) есть вразумительные методики его выбора, обычно оптимальные. А обучение сложной сети это проблема. А в простой обычно и так понятно какие к-ты нужны (ну коррелятор же).

Но речь то на самом деле не об этом, а о том что функционирование нейросети вполне описывается на языке понятном всем кто занимается обработкой сигналов и сразу становится многое понятно почему и что получается хорошо, а где ждать проблем и каких. И ничего особенно нового и поражающего воображение специалиста не видно, окромя массы красивых, но не очень осмысленных, слов произносимых адептами - типа ассоциативная память (тоже в общем то коррелятор) или распределенное хранилище информации (так ведь так и интернет можно назвать и голограмму). То есть не вундерваффе и не надо от них так многого ждать.
 
Mishka>Можно я поерничаю?

Да пожалуйста, я это дело и сам люблю. На все надо смотреть с юмором.

Mishka>Цифровая обработка сигналов demystified или как проходило умиление и приходило понимание.

Mishka>Посмотрим на что похож расчет коэффициентов корреляции - смотрим в программу - все сводится к операциям арифметики - сложение, вычитание, умножение, деление. Ну еще степень и сдвиг. Вспомним, что эти через сложение и вычитание можно выразить остальные операции. А + и - еще Пифагор знал. Так что последние тысячи лет это применяется. Ничего нового.

Разница в том, что не используя ничего кроме понятий элементарной арифметики я не могу много сказать о работе коррелятора, а вот используя понятие коррелятора (ну и ще парочку понятий традиционной цос) очень многое становится ясно в работе нейросетей. В частности, часто сразу видно что будет хорошо получаться, а что нет.
 
+
-
edit
 

Mishka

модератор
★★★
ab>Да пожалуйста, я это дело и сам люблю. На все надо смотреть с юмором.

Это правильно, IMHO.

ab>Разница в том, что не используя ничего кроме понятий элементарной арифметики я не могу много сказать о работе коррелятора, а вот используя понятие коррелятора (ну и ще парочку понятий традиционной цос) очень многое становится ясно в работе нейросетей. В частности, часто сразу видно что будет хорошо получаться, а что нет.

Понятия корреляторов сложнее, чем элементарной математики, поэтому и кажеться, что они позволяют понять больше. Т.е. они, конечно, позволяют понять больше, хотя и не все. И я хотел сказать, что здесь есть тоже качественный скачок, хотя и не такой большой может быть. Вот его и не видно при корреляторном подходе. Насколько я понимаю/знаю нейронные сети, то в них очень важна обратная связь - то ли от одного слоя к другому (кажется это наиболее распространненый вариант), то ли внутри слоя, то ли между многими слоями сразу. Эта обратная связь и позволяет, в первую очередь, подстраиваться/обучаться. Искусство составления функций и обратных связей, на мой взгляд, и есть самое трудное. По сути - это есть не что иное, как создание модели.
   
Mishka>Понятия корреляторов сложнее, чем элементарной математики, поэтому и кажеться, что они позволяют понять больше. Т.е. они, конечно, позволяют понять больше, хотя и не все. И я хотел сказать, что здесь есть тоже качественный скачок, хотя и не такой большой может быть. Вот его и не видно при корреляторном подходе.

Набор корреляторов (или линейных фильтров) есть просто частный случай нейронной сети - один слой. На нем уже можно сделать скажем преобразование Фурье. Множество (если не большинство) реальных систем обработки сигналов представляют из себя сочетание такого набора корреляторов + пороги и потом часто логическая обработка их выходов. Это будет два слоя - скажем линейный и нелинейный (чисто логический). Посему формально то можно (вот только нужно ли) сказать что нейросети применяются почти везде. Вот только обучать их никто не обучает, примеров никаких не показывает, рассчитывают коэффициенты из смысла задачи (для Фурье скажем синусоиды), соответственно и нейросетями не называют. Да и понятно почему, пользы при разработке таких систем от того что они формально нейросети негусто.

> Насколько я понимаю/знаю нейронные сети, то в них очень важна обратная связь - то ли от одного слоя к другому (кажется это наиболее распространненый вариант), то ли внутри слоя, то ли между многими слоями сразу. Эта обратная связь и позволяет, в первую очередь, подстраиваться/обучаться. Искусство составления функций и обратных связей, на мой взгляд, и есть самое трудное. По сути - это есть не что иное, как создание модели.

да как бы адептами обычно предполагается что структура регулярная, только сложная, и только связи да пороги будут меняться в процессе настройки и все будет тип-топ. (Оно и понятно - если и число слоев выбрать искусство и нелинейности выбирать тоже искусство, то где ж наука то, народ и скажет - да мы лучше дядю Васю спросим, он тоже правильный вариант ж... чует, а как и сам не знает.) Вот только оказывается что даже так это фактически глобальная оптимизация по всем весам и порогам, задачка для сложных, да еще нелинейных систем, кроме как прямым перебором вообще то не решаемая. т.е. всеми другими менее лобовыми методами то ли научится, то ли нет. Опять же и примеры для обучения какие и сколько надо непонятно. В общем не очень то много толку с такого знания. Реально эмпирика сплошная (или искусство - если больше нравится). Вот дядю Васю и проще часто спросить.

Есть и другая сторона. Многие программеры ни хрена кроме си не знают, а им как закажут биржу предсказывать или, там, текстуры различать (как же программист это голова, не зря ж ему такие бабки платят). Вот они мозги всем и компостируют - мы вам нейронку поставим (благо библиотеки есть), она как научится, так ахнете.

Короче вопрос имхо в том - сильно ли нужно выходить за двухслойную нейронку? особенно учитывая, что для многих задач проверенные строгие методы есть, в том числе и вполне адаптивные. А если не сильно нужно, то нужно ли ее вообще нейронкой звать, или проще считать набором корреляторов + логика, а не произносить заклинаний типа ассоциативное, распределенное хранилище информации, да студентов лучше учить, чтобы знали они что очень многие задачи известно как решаются?
 
ab>Есть и другая сторона. Многие программеры ни хрена кроме си не знают, а им как закажут биржу предсказывать или, там, текстуры различать (как же программист это голова, не зря ж ему такие бабки платят). Вот они мозги всем и компостируют - мы вам нейронку поставим (благо библиотеки есть), она как научится, так ахнете.

соответственно иногда что-то и получится, но опять вопрос - может лучше было бы сезонные поправки ввести и тренд провесить, тоже конечно некоторое шаманство, но хоть за ним какая-то суть дела видна
 
Вот кстати неплохой материал (размер 900к)

http://nncourse.chat.ru/course.pdf

Только я советую читать сразу страницы с двадцатой, а то на аксонах-мембранах засохнуть можно. А главный минус этого материала это имхо именно слабый показ связи нейросетей с более традиционными методами обработки сигналов.
 
А вот это тоже несколько об ии, почитайте, мне лично нравится

 
+
-
edit
 

Mishka

модератор
★★★
ab>Только я советую читать сразу страницы с двадцатой, а то на аксонах-мембранах засохнуть можно. А главный минус этого материала это имхо именно слабый показ связи нейросетей с более традиционными методами обработки сигналов.

Немного оффтоп, ab, а вы кто по образованию? Только не обижайтесь, ради Бога, мне просто интересно. Судя по вашим постингам, я бы сказал, что что-то сильно связанное с радио-электроникой и обработкой сигналов. Т.е. у меня сложилось такое впечатление из того, как вы говорите о математике. У меня друг есть, кфмн - физик. Он примерно так же с математикой обращается. У нас с ним споры по этому поводу. Я сам математик по образованию и меня это немного удивляет/шокирует (не знаю, как правильно выразиться). Я как-то все разговоры про математику вел среди математиков (пока был в Союзе) и такое упоребление математики для меня явилось открытием. Сейчас жалею, что ранее не разговривал на проффесиональные темы с ребятами других специальностей - рядом были и институт физики, химии, биологии, генетики и др.
   
Mishka>Немного оффтоп, ab, а вы кто по образованию? Только не обижайтесь, ради Бога, мне просто интересно.

Да ну, какие обиды. Я если и параноик то только самую малость.

Mishka>Судя по вашим постингам, я бы сказал, что что-то сильно связанное с радио-электроникой и обработкой сигналов. Т.е. у меня сложилось такое впечатление из того, как вы говорите о математике.

Ну конечно. Если интересно подробнее, скажите, напишу. Надо сказать математическое стремление к точности тоже довольно заметно в быту (в частности многовато оговорок - насколько я знаю и понимаю, по моему и т.п. В принципе это как бы подразумевается, но видать мат.выучка автоматически требует точности задания начальных условий).

Mishka>У меня друг есть, кфмн - физик. Он примерно так же с математикой обращается. У нас с ним споры по этому поводу. Я сам математик по образованию и меня это немного удивляет/шокирует (не знаю, как правильно выразиться).

Вот прям так даже шокирует? Ну меня тоже немного удивляет как математики в общем то понятные вещи часто так изложат, что пока поймешь что они хотят сказать посинеешь.

Mishka>Я как-то все разговоры про математику вел среди математиков (пока был в Союзе) и такое упоребление математики для меня явилось открытием.

Вообще это большая проблема. Математики (видимо) и правда не знают даже не столько для чего (это то полбеды), а как их науку прикладники понимают и используют. А это ну очень плохо, поскольку как не крути, а язык и инструмент естественных наук именно она. Ну а как результат в естественных науках существуют свои, как бы поточнее выразиться, математические традиции.

Mishka>Сейчас жалею, что ранее не разговривал на проффесиональные темы с ребятами других специальностей - рядом были и институт физики, химии, биологии, генетики и др.

Ну все верно, жалко, а как быть, жизнь так устроена, варятся все в своих котлах, у меня например тоже более-менее чистых математиков под рукой нет.
 
+
-
edit
 

Mishka

модератор
★★★
ab>Ну конечно. Если интересно подробнее, скажите, напишу. Надо сказать математическое стремление к точности тоже довольно заметно в быту (в частности многовато оговорок - насколько я знаю и понимаю, по моему и т.п. В принципе это как бы подразумевается, но видать мат.выучка автоматически требует точности задания начальных условий).

Конечно интересно. И про математику, как прикладники ее применяют (я имею ввиде не математиков-прикладников, а физиков, химиков - вообщем тех, для кого это инструмент). Только это надо, наверно, в личную переписку. Мое мыло evstelerama.com.
   
+
-
edit
 

=KRoN=
Balancer

администратор
★★★★★
Ну, у нас же клуб. Так что можно и без личной переписки :)
   
=KRoN=>Ну, у нас же клуб. Так что можно и без личной переписки :)

Клуб то клуб, и это очень хорошо, но еще и в некотором роде сми электронное. А сми вещь такая вещь что с ними поосторожнее надо. Так что информацию на две части хочешь-не хочешь, а делить приходится. А математику будем в ии обсуждать?
 
1 2 3 4

в начало страницы | новое
 
Поиск
Настройки
Твиттер сайта
Статистика
Рейтинг@Mail.ru