翻译文本 文本
翻译文档 文件
口译员 语音
英语
gradient descent
俄语
使用 Lara 即时翻译文本、文件和语音
来自专业的译者、企业、网页和免费的翻译库。
添加一条翻译
Градиентный спуск
最后更新: 2012-12-29 使用频率: 1 质量: 参考: Wikipedia
gradient
Градиент
最后更新: 2017-03-21 使用频率: 14 质量: 参考: Translated.com
gradient .
Так задумано.
最后更新: 2018-02-21 使用频率: 1 质量: 参考: Translated.com
& gradient
& Величина
最后更新: 2011-10-23 使用频率: 1 质量: 参考: Translated.com警告:包含不可见的HTML格式
- descent;
- происхождения;
最后更新: 2017-01-02 使用频率: 1 质量: 参考: Translated.com
here's the idea for gradient descent
Вот основная идея градиентного спуска
最后更新: 2020-11-06 使用频率: 1 质量: 参考: Translated.com
here's what gradient descent looks like
Вот как выглядит градиентный спуск
thrun here is a final gradient descent quiz
И в конце вопрос о градиента спуска
最后更新: 2020-11-10 使用频率: 1 质量: 参考: Translated.com
this is the definition of the gradient descent algorithm
Это определение алгоритма градиентного спуска
you now know about linear regression and gradient descent
Теперь вы знаете о линейной регрессии и градиентном спуске
here's the gradient descent algorithm that we saw last time
Вот алгоритм градиентного спуска, который мы видели в прошлый раз
imagine we initialized gradient descent with that point on the upper right
Представьте что мы начали градиентный спуск с той точки, сверху-справа
here are some disadvantages of the normal equation, and some advantages of gradient descent
Вот несколько недостатков нормального уравнения и достоинств градиентного спуска
one disadvantage of gradient descent is that, you need to choose the learning rate alpha
Первый недостаток градиентного спуска в том, что вам нужно выбирать скорость обучения альфа
gradient descent works pretty well, even when you have a very large number of feature
Градиентный спуск довольно хорошо работает даже когда у вас очень большое число параметров
one of the issues we solved gradient descent is that it can be susceptible to local optima
Одна из проблем была в том, что градиентный спуск восприимчив к локальному оптимуму
here's what we have for gradient descent for the case of when we had n=1 feature
Вот что мы имеем для градиентного спуска в случае, когда у нас число параметров n = @num@
finally, where should you use the gradient descent and when should you use the normal equation method
Наконец, где вы должны использовать градиентный спуск, а где вы должны использовать метод нормальных уравнений (метод наименьших квадратов)
this also explains why gradient descent can converge the local minimum, even with the learning rate alpha fixed
Это также объясняет, почему градиентный спуск сходится к локальному минимуму, даже при фиксированной альфа
in the next video, i'll tell you about another trick to make gradient descent work well in practice
В следующем видео я расскажу вам о другом трюке, для оптимизации работы градиентного спуска на практике
准确的文本、文件和语音翻译