텍스트 번역 텍스트
문서 번역 문서
통역 음성
영어
gradient descent
러시아어
Lara로 텍스트, 문서 및 음성을 즉시 번역
전문 번역가, 번역 회사, 웹 페이지 및 자유롭게 사용할 수 있는 번역 저장소 등을 활용합니다.
번역 추가
Градиентный спуск
마지막 업데이트: 2012-12-29 사용 빈도: 1 품질: 추천인: Wikipedia
gradient
Градиент
마지막 업데이트: 2017-03-21 사용 빈도: 14 품질: 추천인: Translated.com
gradient .
Так задумано.
마지막 업데이트: 2018-02-21 사용 빈도: 1 품질: 추천인: Translated.com
& gradient
& Величина
마지막 업데이트: 2011-10-23 사용 빈도: 1 품질: 추천인: Translated.com경고: 보이지 않는 HTML 형식이 포함되어 있습니다
- descent;
- происхождения;
마지막 업데이트: 2017-01-02 사용 빈도: 1 품질: 추천인: Translated.com
here's the idea for gradient descent
Вот основная идея градиентного спуска
마지막 업데이트: 2020-11-06 사용 빈도: 1 품질: 추천인: Translated.com
here's what gradient descent looks like
Вот как выглядит градиентный спуск
thrun here is a final gradient descent quiz
И в конце вопрос о градиента спуска
마지막 업데이트: 2020-11-10 사용 빈도: 1 품질: 추천인: Translated.com
this is the definition of the gradient descent algorithm
Это определение алгоритма градиентного спуска
you now know about linear regression and gradient descent
Теперь вы знаете о линейной регрессии и градиентном спуске
here's the gradient descent algorithm that we saw last time
Вот алгоритм градиентного спуска, который мы видели в прошлый раз
imagine we initialized gradient descent with that point on the upper right
Представьте что мы начали градиентный спуск с той точки, сверху-справа
here are some disadvantages of the normal equation, and some advantages of gradient descent
Вот несколько недостатков нормального уравнения и достоинств градиентного спуска
one disadvantage of gradient descent is that, you need to choose the learning rate alpha
Первый недостаток градиентного спуска в том, что вам нужно выбирать скорость обучения альфа
gradient descent works pretty well, even when you have a very large number of feature
Градиентный спуск довольно хорошо работает даже когда у вас очень большое число параметров
one of the issues we solved gradient descent is that it can be susceptible to local optima
Одна из проблем была в том, что градиентный спуск восприимчив к локальному оптимуму
here's what we have for gradient descent for the case of when we had n=1 feature
Вот что мы имеем для градиентного спуска в случае, когда у нас число параметров n = @num@
finally, where should you use the gradient descent and when should you use the normal equation method
Наконец, где вы должны использовать градиентный спуск, а где вы должны использовать метод нормальных уравнений (метод наименьших квадратов)
this also explains why gradient descent can converge the local minimum, even with the learning rate alpha fixed
Это также объясняет, почему градиентный спуск сходится к локальному минимуму, даже при фиксированной альфа
in the next video, i'll tell you about another trick to make gradient descent work well in practice
В следующем видео я расскажу вам о другом трюке, для оптимизации работы градиентного спуска на практике
텍스트, 문서, 음성 번역의 정확성