NVIDIA использует искусственный интеллект для разработки графических процессоров
Билл Далли (Bill Dally), главный научный сотрудник и старший вице-президент по исследованиям в NVIDIA, на GTC 2022 поделился докладом о том, как компания использует искусственный интеллект и машинное обучение для разработки графических процессоров. По его словам, это позволяет значительно ускорить разработку, а также снизить затрачиваемое время на проектирование с трех часов до трех секунд.
В своем докладе Билл отметил четыре важные области при проектировании графических процессоров, которые было бы неплохо ускорить: отображение падения напряжения, прогнозирование паразитных явлений, проблемы размещения и маршрутизации, автоматизация стандартной миграции ячеек.
В первом случае отображение падения напряжения показывает инженерам, где и как сильно в схеме происходит падение напряжения. Обычно для расчета этого параметра требуется около трех часов, но если задействовать искусственный интеллект и машинное обучение, то затраченное время уменьшается до трех секунд.
Также Биллу нравится использовать ИИ для прогнозирования паразитных явлений. Он позволяет значительно сократить длительный процесс с участием нескольких сотрудников и специалистов, а ошибка в моделировании весьма маленькая и составляет менее 10%, что позволяет освободить людей для других нужд.
Размещение и маршрутизация очень важны в проектировании не только графических процессоров, но и любых микросхем в принципе. Неправильная расстановка компонентов приведет к проблемам с движением данных, что потребует перемаршрутизации и перепланировки пакетов. Использование ИИ в этом случае помогает выявить проблемные области.
Другими словами, искусственный интеллект и машинное обучение позволяют значительно ускорить разработку графических процессоров и освободить рабочую силу для решения других задач. На данный момент у NVIDIA есть пять лабораторий, работающих над исследованиями в области ИИ, поэтому улучшения в этой области явно будут.