Цитата
Повторяю, я говорю по опыту Fah. Сами можете установить и посмотреть. Там все работает и распараллеливается и никакой "минимальной частотой" не ограничивается, не думаю, что у нас программисты в каких нибудь гос. НИИ тупее ихних.
Моя идея (наверно я ее не первый эксклюзивный "создатель") - задействовать ОГРОМНЫЕ халявные мощности, которые без дела простаивают у жителей Росссии НА БЛАГО СТРАНЫ (разница с Fah). И не более этого. Это не замена ничего другого, ни настоящих суперкомпьютеров, ни остального.
Сейчас большинство суперкомпьютеров делаются на основе кластеров, который состоит из тысяч обычных процессоров-компьютеров и которые соеденены между собой сетью. Это, о ужас, тоже разновидность паралельных вычислений. Разница в гибкости. Как формула-1 и медленно разгоняющийся и медленно тормозящий тепловоз с составом. На "мелкие" проекты такую махину типа Fah конечно задействовать будет сложно.
Вы не внимательно читаете. И на пустом месте вцепились в параллелизм. Параллелизм это будущее, потому как есть физические ограничения на увеличение производительности одного процессора. Отсюда современные двуядерные, четырехъядерные, восьмиядерные процессоры, Cell. А не ваша мечта, пентиум 10000 мегагерц. Это так, оффтоп. Ибо в упор не вижу связи с темой, бытовые процессоры как развивались так и будут развиваться, а не остановятся в развитии, это их никак не касается.
Вы себя окончательно дискредитировали в данном вопросе. Вы вообще не поняли, почему я завел разговор про паралелизм. Если ваш следующий пост не будет пытаться ответить на мои доводы я не буду больше тратить время на спор с Вами по данному вопросу.
Разжевываю свой предыдущий пост.
Видите-ли, задача может решаться последовательно, когда задача выполняется пошагово, или, как например при игре в шахматы, решение для для вычисления возможных вариантов позиции через 10 ходов можно раскидать возможные ходы фигурами по разным процессорам, и каждый будет обрабатывать свою задачу.
Если же задача не распаралеливается или плохо распаралеливается, то решать ее придется все равно физически на одном компьютере, при вашем подходе и не важно, сколько у Вас в наличии компьютеров в сети с клиентским ПО, все будут ждать, пока обрабатывается последовательный процесс, для того, чтобы результат вычислений использовать далее в соответствии с алгоритмом решения задачи.
Еще раз повторяю - если бы Ваш подход был бы целесообразен, то более мощные процессоры не было бы смысла производить - просто на материнской плате появлялось бы больше процессорных гнезд. Не было бы мощных ЦОД, а зачем? соединил компы в сеть, написал/купил ПО для того, чтобы они обрабатывали задачи совместно и все дела. Когда я учился в университете у нас был отдельный вид программирования - параллельное программирование, наряду с рекурсивно-логическим и объектно-ориентированным. И это целая наука - какие алгоритмы можно распаралелить (в вашем случае - раскидать по разным компьютерам), какие нет.
Вы сами признали, что Вы не специалист, но Вы все же предложили идею, это хорошо. Я вам с научной точки зрения пытаюсь обосновать неэффективность вашего подхода в данном случае (вместо суперкомпьютера писать ПО для соединения множества физически разделенных компьютеров в один логический по сети internet), но Вы тыкаете меня носом в какой-то проект, не желая со мной спорить в классической естественной теории и продолжая стоять на своем(вместо суперкомпьютера писать ПО для соединения множества физически разделенных компьютеров в один логический по сети internet). Возможно проект, про который Вы упоминаете имеет право на жизнь, но суперкомпьютер он никак не заменит.