Pull to refresh

Comments 45

Достать CLI Tor можно 2 способами:

Мне одному это подняло настроение?

Я рад, что поднял настроение. А что развеселило?

Ваш "CLI Tor", простите. Вы что его до сих пор не замечаете? )

Лучше будет сказать тор сервис?

Боже 🤦‍♂ Спасибо вам, добрый человек, я не мог увидеть этого на протяжении нескольких часов и не понимал, в чем проблема.

Ты не один такой :)

Искренне думал, что очередной сноб угарает, что кто то устанавливает кли Тор, ведь она уже в пакете тор. Что со мной сделал интернет...

Только ничего не исправляйте 😁

Я несколько раз прилежно перечитывал аббревиатуру и не понимал и только потом долистал комментарии :D

Ага, я в повседневности говорю именно СиЭлАй, тоже не вкурил сразу в чем цимес

Сначала не понял, а потом кааак понял. Теперь мне тоже настроение на весь день подняло

  1. Ставим Ollama

  2. Ставим плагин Continue для Jetbrains или VSCodium

  3. По инструкции от Continue настраиваем весь пакет, скачиваем модели, запускаем

И оно работает. Локально. Оффлайн. Без учётной записи Microsoft, Tor, интернета, нестабильности, настройки проксика, проблем с блокировкой Tor в России, отправки заявок, справок из школы, турецкой кредитки, криптовалют, ...

Работает похуже — но это всё меньше заметно, локальные модели хорошеют каждый месяц. На Macbook M1 Pro и его скромных 16 ГБ гибридной памяти работает довольно быстро.

Конечно Ваша инструкция очень важна, т.к. каждый юзер какого-то скромного ноута с 8гб памяти(а таких ещё очень много, эпл в том числе решило такой мув сделать недавно) сможет запустить хотя бы самый маленький мистрал или лламу на 7b которые требуют минимум 12 и 14 гигабайт соответственно(если меня не обманула информация с самой первой ссылки в гугле). Спешу так же напомнить что ни ллама, ни мистрал, ни гемма не обучены в режиме code completion как это есть с копилотом или starcode 7b(этот даже бесплатный на fireworks.ai из-за чего локально ничего ставить не нужно), из-за чего они могут выполнять лишь функцию чата в данных средах, в то время как специально обученные сетки способны на лету дополнять код.

Всё верно.

каждый юзер какого-то скромного ноута с 8гб памяти

...сможет прочитать инструкцию по ссылке и найти модель на любой размер и вкус. Например:

If you are running the model locally, we recommend starcoder2:3b.
If you find it to be too slow, you should try deepseek-coder:1.3b-base.
If you have a bit more compute, or are running a model in the cloud, you can upgrade to deepseek-coder:6.7b-base.

Думаю, на 1.3b параметров хватит 4 ГБ памяти. Если на вашем ноуте 2 ГБ или меньше, можно запустить модель на соседнем компе, или сервере, или выбрать поставщика compute, который примет оплату в рублях и обслуживает российские IP.

Спешу так же напомнить что ни ллама, ни мистрал, ни гемма не обучены в режиме code completion

..поэтому Continue их и не рекомендуют. Зато рекомендуют специализированные модели, выбирайте на вкус и вычислительный бюджет.

Зачем такие сложности когда есть blacbox?

Лучше расскажите как обойти проблему с рутовым корпоротивным сертом и ошибку при логине из-за него :)

Я бы посоветовал попробовать Codeium, бесплатно и для огромного количества языков.

И он действительно весьма помогает. Безо всяких танцев с бубнами.

Он даже не скрывает на основе какой модели он обучен.

Hidden text

Судя по всему база у него 21-го года.

У него есть режим GPT-4

Это у платной подписки.

Но даже на бесплатном плане он очень неплохо работает.

У бесплатной тоже есть, с ограничением по количеству запросов.

У бесплатной нет доступа к GPT-4

А, вот оно что. Я подавал заявку на тестирование GPT-4, и видимо меня перевели на Pro. Но я ни копейки не платил, так что все равно бесплатно.

Тут можно встать в очередь.

А мне повезло - я просто установил Copilot из настроек плагинов, нажав install.

Проблема не в установке, а в доступе к API.

полгода назад доставали индусы - приглашали на интервью в крупного финансового брокера (работал там 10 лет назад - поэтому никогда не буду там открывать аккаунт). Пыжились с вопросами - а я их обидел :-( сказал, что они зря тратят время так как все эти ответы отлично напишет Copilot и собственно они (и вопросы и индусы) не особо то и нужны.

Вот кстати интересный вопрос - а нафига теперь собеседования с написанием кода если примерно 90% такого кода Copilot генерирует вполне сносно. (90% в среднем, так как качество немного отличается - для JS код почти всегда верный, для Python чуть хуже, но легко допиливается)

И, кстати, утверждение о том, что в компаниях пользоваться ИИ запрещено не совсем верно. Например в компании где я работаю (я думаю процентов 20-25 хабравчан будут ставить мне минусики (а может и плюсики) будут использовать наши ноуты) Copilot вполне разрешен и успешно юзается для написания кода

Тема для обсуждения действительно интересная.
Про использование в компаниях. Конечно используют, но я лично знаю несколько примеров крупных компаний, где copilot'ом пользоваться нельзя (насчет остальных ИИ не уверен).
Очень хорошо, когда базовые задачи оптимизируются таким способом. Все равно никто не оставляет сгенерированный код неизменным. А некачественный (или небезопасный) код не пропустит review.

"нельзя пользоваться AI для написания кода", как правило, из опасений его утечки.

Samsung engineers accidentally leaked internal source code by uploading it to ChatGPT

К использованию локальных LLM, отрезанных от Интернета, все-таки спокойнее относятся.

[warn] Failed to parse/validate config: Unknown option 'obfs4'.  Failing.
[err] Reading config failed--see warnings above.

чяднт?

Обратите внимание, что перед obsf4 нужно добавлять слово Bridge для каждой строки конфигурации моста.

Service error 1063 : The service process could not connect to the service controller.

Ошибка при старте сервиса на винде

Попробуйте установить сервис другим способом:
1. "C:\Program Files\Tor\tor\tor.exe" --service install -options -f "C:\Program Files\Tor\torrc"
2. C:\Program Files\Tor\tor\tor.exe --service start
Если не помогло, попробуйте изучить логи tor.

Спасибо за гайд!

  1. В статье (на скрине) используется порт 9081, а в гитхаб конфиге 9080

  2. В новых версиях tor'а вместо obfs4proxy используется lyrebird

Рад, что вам было полезно. Спасибо, добавлю в статью!

Спасибо за статью, но есть пару комментариев к запуску на macos

1) Нужно так же установить obfs4proxy (можно через brew)
2) /opt/homebrew/etc/tor/torrc.sample переименовываем в torrc
3) Берем шаблон, но вместо /usr/local/bin/obfs4proxy указываем оутпут which obfs4proxy

Спасибо за комментарий, добавлю в статью. Давно настраивал, мог что-то упустить!

Подскажите, а кто-т опробовал использовать этот метод для Visual Studio 2022? У меня выдает 403 ошибку и пишет, что "At this time, Copilot is not available in your location". Может у кого получилось?

Sign up to leave a comment.

Articles