Комментарии 11
Что автор имел ввиду под выражением "реализация с нуля"?
Тоже улыбнуло) Например, можно было в выводе least squares normal equation более подробно расписать матричное дифференцирование по весам, чтобы читатели понимали откуда что
Можете уточнить в каком именно месте вывод недостаточно подробен и что под этим имеется в виду?
Имею в виду появление 2 вместо wT в первом слагаемом в скобках.
Конечно можно написать, что производная квадрата равна двойке, но стоит ли? Думаю, что люди, занимающиеся ML, и так в курсе об этом.
Производная x^2 равна не 2, а 2x, если что.
Всё верно, поэтому в формуле остался один вектор весов. Уточню, что в данном случае производная берётся не по , если что :)
Вопрос же был про появление двойки, поэтому я и ответил только про неё, или на ваш взгляд, люди, читающие статьи по ML, не знакомы с производными и эту тему стоит раскрыть более подробно? Лично мне так не кажется.
Когда я увидел "с нуля", я почитал статью. Думаю на "с нуля" такие как я и ведутся: я не занимаюсь МЛ, мне просто интересна эта тема. И вот если производные и интегралы я ещё помню, то матрицы я видел 26 лет назад, на первом курсе института, и переход от слу к матрицам для меня выглядел непонятно. Я , конечно же начал гуглить нормальное уравнение, но там тоже не опускаются до такого уровня.
Что же касается людей занимающихся МЛ, то думаю что они в курсе и о линейной регрессии, раз уж помнят правила производных.
Тем не менее, спасибо, в процессе гугления я узнал/напомнил много нового: и Крамера и детерминант и обратную матрицу.
Дело конечно же ваше, но лучше перед ML освежить знания по математике, чтобы потом было легче. К слову, я про это тоже писал план обучения, с которым можно ознакомиться здесь.
Линейная регрессия. Основная идея, модификации и реализация с нуля на Python