Применен алгоритм машинного обучения Deep Deterministic
Policy Gradient для получения решения задачи перехвата
машиной Дубинса цели, движущейся по прямолинейной или
круговой траектории, а также построены траектории перехвата и
получены кривые обучения. Было проведено сравнение
полученных управлений и траекторий, полученных при помощи
численных методов с аналитическим решением. Также
нейросетевое решение было проверено на чувствительность к
изменению начальных параметров.