NVIDIA использует искусственный интеллект для разработки графических процессоров

Билл Далли (Bill Dally), главный научный сотрудник и старший вице-президент по исследованиям в NVIDIA, на GTC 2022 поделился докладом о том, как компания использует искусственный интеллект и машинное обучение для разработки графических процессоров. По его словам, это позволяет значительно ускорить разработку, а также снизить затрачиваемое время на проектирование с трех часов до трех секунд.

В своем докладе Билл отметил четыре важные области при проектировании графических процессоров, которые было бы неплохо ускорить: отображение падения напряжения, прогнозирование паразитных явлений, проблемы размещения и маршрутизации, автоматизация стандартной миграции ячеек.

В первом случае отображение падения напряжения показывает инженерам, где и как сильно в схеме происходит падение напряжения. Обычно для расчета этого параметра требуется около трех часов, но если задействовать искусственный интеллект и машинное обучение, то затраченное время уменьшается до трех секунд.

Также Биллу нравится использовать ИИ для прогнозирования паразитных явлений. Он позволяет значительно сократить длительный процесс с участием нескольких сотрудников и специалистов, а ошибка в моделировании весьма маленькая и составляет менее 10%, что позволяет освободить людей для других нужд.

Размещение и маршрутизация очень важны в проектировании не только графических процессоров, но и любых микросхем в принципе. Неправильная расстановка компонентов приведет к проблемам с движением данных, что потребует перемаршрутизации и перепланировки пакетов. Использование ИИ в этом случае помогает выявить проблемные области.

Другими словами, искусственный интеллект и машинное обучение позволяют значительно ускорить разработку графических процессоров и освободить рабочую силу для решения других задач. На данный момент у NVIDIA есть пять лабораторий, работающих над исследованиями в области ИИ, поэтому улучшения в этой области явно будут.