>> |
No.6756761
>>6756646> вон, уже академию художеств закрывают Окститесь, Кальсон Тарасович! Академия художеств СССР ликвидирована в 1991 году, как раз перед вашим выходом на пенсию. Ну а в 2022-м все художники, которые что-либо зарабатывают, ведут микроблоги на твиттере, который вы упорно не читаете, полагая бесовством пиндосским. Если бы читали – видели бы, что они думают о text to image models. > в следующем же изображении пошел тверк испорченных кальсон. К дьяволу картинки Вам не хватило картинок? Вы ведь уже сторговались до того, что им не хватает художественной глубины, а если хватает – то их небось люди рисуют. > главное, как нейросети придумывают себе язык! Хотя это очередная утка фанатиков. Я напомню Светлане Васильевне, чтобы почаще выносила вашу утку, если вы об этом. Потому что какой смысл имеет это высказывание в контексте беседы – решительно непонятно. Право слово, нейросети намного когерентнее вашей копролалии. > Что, конечно же, не так, и вам, батенька, будет проще простого два раза ввести в нейросеть одинаковый ввод - и с единичной вероятностью получить идентичный вывод. В самом деле. Замороженные нейросети детерминистичны, а вся случайность в генерациях происходит из генератора случайных чисел; одинаковый промпт и одинаковый сид дают при одинаковой точности вычислителя одинаковый вывод, так что достаточно сохранять сиды. Классификаторы же всегда детерминистичны. Например, я набираю в терминале `python3 clip_test.py cpu`. Скрипт содержит следующие строчки: ` model, preprocess = clip.load("ViT-B/32", device=device)
>>6756646> вон, уже академию художеств закрывают Окститесь, Кальсон Тарасович! Академия художеств СССР ликвидирована в 1991 году, как раз перед вашим выходом на пенсию. Ну а в 2022-м все художники, которые что-либо зарабатывают, ведут микроблоги на твиттере, который вы упорно не читаете, полагая бесовством пиндосским. Если бы читали – видели бы, что они думают о text to image models. > в следующем же изображении пошел тверк испорченных кальсон. К дьяволу картинки Вам не хватило картинок? Вы ведь уже сторговались до того, что им не хватает художественной глубины, а если хватает – то их небось люди рисуют. > главное, как нейросети придумывают себе язык! Хотя это очередная утка фанатиков. Я напомню Светлане Васильевне, чтобы почаще выносила вашу утку, если вы об этом. Потому что какой смысл имеет это высказывание в контексте беседы – решительно непонятно. Право слово, нейросети намного когерентнее вашей копролалии. > Что, конечно же, не так, и вам, батенька, будет проще простого два раза ввести в нейросеть одинаковый ввод - и с единичной вероятностью получить идентичный вывод. В самом деле. Замороженные нейросети детерминистичны, а вся случайность в генерациях происходит из генератора случайных чисел; одинаковый промпт и одинаковый сид дают при одинаковой точности вычислителя одинаковый вывод, так что достаточно сохранять сиды. Классификаторы же всегда детерминистичны. Например, я набираю в терминале `python3 clip_test.py cpu`. Скрипт содержит следующие строчки: ` model, preprocess = clip.load("ViT-B/32", device=device) image = preprocess(Image.open("avocado.jpg")).unsqueeze(0).to(device) text = clip.tokenize(["avocado", "a fruit", "a cat", "a computer"]).to(device) ` Вследствие этого получаю следующие веса для слов: 9.40521717e-01 5.94519302e-02 1.41673163e-05 1.21829535e-05 И так будет и сегодня, и вчера, и через миллиард лет. Более того, это можно проверить и на другой машине! Вот вам картинка, дальше сами разберётесь. Но дело ведь ещё печальнее, Кальсон Тарасович. К чему вы это спизданули? С чего вы вообще взяли, что воспроизводимость результатов имеет какую-то связь с чернокоробочностью? Детерминистичные чёрные коробки – норма, как и полностью интерпретируемые системы с рандомным выводом и понятным источником случайности. И более того: на что вы вообще возражаете? Нет, конечно же это именно так – с точки зрения потребителя. > Фундаментально слон почти не отличается от мокрицы Биохимически и правда разница невелика. Но дело ведь в другом. Для навигации на дороге необходимо очень достоверно различать и интерпретировать широкий диапазон стимулов, в первую очередь изображений. Для распознавания и генерации картинок... нужно то же самое. С распознаванием картинок дело теперь обстоит очень хорошо – пикрелейтед. Но ведь, Кальсон Тарасович, вы никогда не отличались талантом в распознавании закономерностей, поэтому вам не понятно, что тут интересного. Отсюда и ваши тупейшие (но иногда забавные) аналогии, и полная научная бездарность. > Конечно, больной, а Deep Blue победил в шахматы с помощью логического программирования. Итак, станцуйте же нам тверк грязных кальсон про "это другое"! Может быть и не другое, может быть то же самое. Давайте сравним. Deep Blue's evaluation function was initially written in a generalized form, with many to-be-determined parameters (e.g., how important is a safe king position compared to a space advantage in the center, etc.). Values for these parameters were determined by analyzing thousands of master games. The evaluation function was then split into 8,000 parts, many of them designed for special positions. The opening book encapsulated more than 4,000 positions and 700,000 grandmaster games, while the endgame database contained many six-piece endgames and all five and fewer piece endgames. An additional database named the “extended book” summarizes entire games played by Grandmasters. The system combines its searching ability of 200 million chess positions per second with summary information in the extended book to select opening moves.[44] Only four TPUs were used for inference. The neural network initially knew nothing about Go beyond the rules. Unlike earlier versions of AlphaGo, Zero only perceived the board's stones, rather than having some rare human-programmed edge cases to help recognize unusual Go board positions. The AI engaged in reinforcement learning, playing against itself until it could anticipate its own moves and how those moves would affect the game's outcome.[9] In the first three days AlphaGo Zero played 4.9 million games against itself in quick succession.[10] It appeared to develop the skills required to beat top humans within just a few days, whereas the earlier AlphaGo took months of training to achieve the same level.[11] For comparison, the researchers also trained a version of AlphaGo Zero using human games, AlphaGo Master, and found that it learned more quickly, but actually performed more poorly in the long run.[12] Внимание, вопрос 1: Это то же самое или это другое? Вопрос 2: Почему AlphaZero Chess, также обученная исключительно на игре против себя, рвёт лучшие классические движки вроде Stockfish, в которые вложены десятки лет опыта профессиональных игроков, частных случаев и, как вы однажды выразились, модулей бульба-пёс? Вопрос 3: Почему не существует играющих на профессиональном уровне движков для Го, созданных при помощи логического программирования? Ответим на третий вопрос. Строго логические игры, такие как шахматы и го, можно охарактеризовать количеством возможных позиций, что ограничивает их сложность. В зависимости от фазы игры, игроки должны выбрать один из небольшого числа возможных ходов, называемого широтой игры или фактором разветвления b. Если наступает очередь белых, они должны выбрать один из b возможных ходов; черные могут ответить на каждый из них b своими контрходами. То есть, после одного хода уже есть b раз по b или bˆ2 ходов, которые белые должны учитывать в своей стратегии. Если предположить, что шахматная партия длится в среднем d ходов (это называется глубиной партии), то полное дерево игры из любой начальной позиции - список всех ходов, контрходов, контрходов и так далее до победы одной или другой стороны - содержит примерно b раз b раз b..., d раз подряд, или bˆd конечных позиций (так называемых терминальных узлов или листьев дерева поиска). Учитывая, что типичная шахматная партия имеет коэффициент ветвления около 35 и длится 80 ходов, количество возможных ходов огромно - около 35ˆ80 (или 10ˆ123), так называемое "число Шеннона" в честь первооткрывателя Лаборатории Белла Клода Шеннона, который не только изобрел теорию информации, но и написал первую статью о том, как запрограммировать машину для игры в шахматы, еще в 1950 году. Число Шеннона, равное 10ˆ123, огромно, особенно если учесть, что во всей наблюдаемой Вселенной, состоящей из галактик, звезд, планет, собак, деревьев и людей, насчитывается всего около 10ˆ80 атомов. Но сложность игры го больше, намного больше. С её широтой в 250 возможных ходов каждый ход (в го играют на доске 19 на 19 по сравнению с гораздо меньшим шахматным полем 8 на 8) и типичной глубиной игры в 150 ходов, существует около 250ˆ150, или 10ˆ360 возможных ходов. Это число не поддается воображению и делает любую мысль об исчерпывающей оценке всех возможных ходов совершенно нереальной. Учитывая эту практически безграничную сложность, го в гораздо большей степени, чем шахматы, является распознаванием паттернов, возникающих, когда группы камней окружают пустое пространство. Игроки осознанно или нет воспринимают отношения между группами камней и говорят о таких, казалось бы, размытых понятиях, как "легкие" и "тяжелые" формы камней, а также адзи, что означает скрытые возможности. Такие понятия, однако, гораздо труднее охватить алгоритмически, чем формальные правила игры. Соответственно, компьютерные программы для игры в го испытывали трудности по сравнению со своими шахматными аналогами, и ни одна из них никогда не выигрывала у человека-профессионала в условиях регулярного турнира. По прогнозам, до такого события оставалось не менее десяти лет. > Переведено с помощью www.DeepL.com/Translator (бесплатная версия)
|