Для меня магия начинается когда я не знаю язык программирования, скажем Питон, но могу на нем писать с использованием chatGpt. Мне ведь нужно иметь опыт всего с одним языком программирования что бы понимать большенство других, и вместе с языковой моделью я могу и использовать их, покрайней мере на бытовом уровне. Кстати если вы запишете такое же видео, но с использованием языка которого вы не знаете, пользы от того что модель дает на выходе будет на много больше, учитывая что вы не знаете синтаксиса и базововых конструктов языка.
Коммент потёрся видимо из-за ссылки. Terence Tao AI Will Become Mathematicians’ ‘Co-Pilot’ так называется статья про ChatGPT + theorem prover и аналогии с IT, Open Source и тд
@@soloondotnet ну вот не совсем согласен насчет этого. Мы можем дать осведомленность LLM о нашей кодобазе путём создания эмбеддинга - векторного представления кода для репозитория. Тогда можно будет посылать запросы в LLM типа "а где у меня доступ к апи вызывается?" или "создай мне фичу по типу уже имеющихся". Чтобы поиск был намного более умным, чем просто поиском по ключевым словам в эмбеддинге, можно использовать RAG - когда эти "ключевые слова и их контекст" передаётся в другую, более глупую, но быструю модельку и она указывает какие конкретно результаты пользователь хочет получить. Это прям радикально меняет подход к программированию, особенно когда приходится работать с большой незнакомой кодовой базой с гитхаба.
@@ДмитрийМ-ю1е как я показал в конце видео, это вполне возможно. другое дело что подход TDD сейчас не то чтобы в моде. скорее в моде "разумное" покрытие тестами, но точно не test-first development
@@soloondotnet Речь не о моде. Когда пишешь через тесты, классы/модули получаются слабосвязанными и хорошо тестируемыми (автоматически), а не прибитыми гвоздями друг к другу. Архитектура как бы выкристаллизовывается под давлением тестов. Лучше прорабатываются различные конеркейсы. Падение скорости разработки - это иллюзия. Поддерживать потом такой код - это одно удовольствие: - новая фича имплементиться написанием теста/тестов быстро и просто - код легко читается - тесты заменяют документацию - не нужен раздутый штат тестировщиков. экономия по деньгам 2x/3x для компании. Я уж молчу про стабильность работы - на порядки возрастает.
@@ДмитрийМ-ю1е тут разговор скорее про loose coupling. да, действительно, в контексте ИИ придется его делать всеми возможными путями, т.к. он помогает самому ИИ связывать разные части воедино.
Spasibo ;) zhdiom prodolzhenija AI temy
Для меня магия начинается когда я не знаю язык программирования, скажем Питон, но могу на нем писать с использованием chatGpt. Мне ведь нужно иметь опыт всего с одним языком программирования что бы понимать большенство других, и вместе с языковой моделью я могу и использовать их, покрайней мере на бытовом уровне.
Кстати если вы запишете такое же видео, но с использованием языка которого вы не знаете, пользы от того что модель дает на выходе будет на много больше, учитывая что вы не знаете синтаксиса и базововых конструктов языка.
Логично. Или на языке который априори сложнее, вроде Rust или C++.
Коммент потёрся видимо из-за ссылки. Terence Tao AI Will Become Mathematicians’ ‘Co-Pilot’ так называется статья про ChatGPT + theorem prover и аналогии с IT, Open Source и тд
Спасибо, оставляю тут ссылку: www.scientificamerican.com/article/ai-will-become-mathematicians-co-pilot/
Дмитрий здравствуйте, очень полезное видео, про copilot(vs2022) или ai который на rider видео будет?
Возможно будет. Хотя кодинг-ассистенты внутри IDE это, я бы сказал, незначительная часть общей картины.
@@soloondotnet ну вот не совсем согласен насчет этого.
Мы можем дать осведомленность LLM о нашей кодобазе путём создания эмбеддинга - векторного представления кода для репозитория. Тогда можно будет посылать запросы в LLM типа "а где у меня доступ к апи вызывается?" или "создай мне фичу по типу уже имеющихся". Чтобы поиск был намного более умным, чем просто поиском по ключевым словам в эмбеддинге, можно использовать RAG - когда эти "ключевые слова и их контекст" передаётся в другую, более глупую, но быструю модельку и она указывает какие конкретно результаты пользователь хочет получить.
Это прям радикально меняет подход к программированию, особенно когда приходится работать с большой незнакомой кодовой базой с гитхаба.
Было бы неплохо научить писать сначала тесты, а потом на основе тестов код.
Хотя возможно в случае chatgpt, tdd не столь актуально
@@ДмитрийМ-ю1е как я показал в конце видео, это вполне возможно. другое дело что подход TDD сейчас не то чтобы в моде. скорее в моде "разумное" покрытие тестами, но точно не test-first development
@@soloondotnet Речь не о моде. Когда пишешь через тесты, классы/модули получаются слабосвязанными и хорошо тестируемыми (автоматически), а не прибитыми гвоздями друг к другу. Архитектура как бы выкристаллизовывается под давлением тестов. Лучше прорабатываются различные конеркейсы. Падение скорости разработки - это иллюзия. Поддерживать потом такой код - это одно удовольствие:
- новая фича имплементиться написанием теста/тестов быстро и просто
- код легко читается - тесты заменяют документацию
- не нужен раздутый штат тестировщиков.
экономия по деньгам 2x/3x для компании. Я уж молчу про стабильность работы - на порядки возрастает.
@@ДмитрийМ-ю1е тут разговор скорее про loose coupling. да, действительно, в контексте ИИ придется его делать всеми возможными путями, т.к. он помогает самому ИИ связывать разные части воедино.