EN
Ирония безопасности
Ирония безопасности
114 subscribers

Стратегический ход OpenAI: Приветствуя экспертизу в области кибербезопасности в Совете

OpenAI, ведущая исследовательская организация в области искусственного интеллекта, назначила в свой совет директоров генерала армии США в отставке Пола М. Накасоне, бывшего директора Агентства национальной безопасности (АНБ). Накасоне, который дольше всех занимал пост руководителя киберкомандования США и АНБ, привносит в OpenAI обширный опыт в области кибербезопасности. Это назначение подчёркивает приверженность OpenAI обеспечению безопасной и полезной разработки общего искусственного интеллекта (AGI).
В качестве важного шага по укреплению своих возможностей в области кибербезопасности OpenAI, ведущая компания по исследованиям и разработкам в области искусственного интеллекта, назначила генерала армии США в отставке Пола М. Накасоне членом своего совета директоров. Накасоне, который ранее занимал пост директора Агентства национальной безопасности (АНБ) и командующего киберкомандованием США, обладает обширным опытом в области кибербезопасности и обеспечения национальной безопасности. Его назначение подчёркивает приверженность OpenAI обеспечению безопасной и полезной разработки общего искусственного интеллекта (AGI).
Военная карьера Накасонэ длилась более трех десятилетий, в течение которых он сыграл ключевую роль в формировании системы кибербезопасности вооружённых сил США. Как самый продолжительный руководитель киберкомандования США, он руководил созданием командования и сыграл важную роль в развитии возможностей киберзащиты страны. Его пребывание в АНБ привело к созданию Центра безопасности искусственного интеллекта, который занимается защитой цифровой инфраструктуры страны и развитием её возможностей киберзащиты.
В OpenAI Накасоне первоначально войдёт в состав Комитета по охране и безопасности, который отвечает за принятие важнейших решений для всех проектов и операций OpenAI. Его идеи внесут значительный вклад в усилия компании по лучшему пониманию того, как искусственный интеллект может быть использован для укрепления кибербезопасности путём быстрого обнаружения угроз кибербезопасности и реагирования на них. Опыт Накасоне будет бесценен для руководства OpenAI в достижении её миссии по обеспечению того, чтобы AGI приносил пользу всему человечеству.
Это назначение было встречено положительной реакцией отраслевых экспертов. Многие считают, что опыт Накасонэ в военной сфере и кибербезопасности даст бесценную информацию, особенно по мере того, как технологии искусственного интеллекта становятся все более неотъемлемой частью стратегий национальной безопасности и обороны. Его опыт в области кибербезопасности поможет OpenAI ориентироваться в сложном ландшафте безопасности искусственного интеллекта и гарантировать, что её системы искусственного интеллекта устойчивы к различным формам киберугроз.
Хотя назначение Накасоне является значительным шагом вперёд, OpenAI по-прежнему сталкивается с проблемами в обеспечении безопасной и ответственной разработки искусственного интеллекта. Недавно из компании ушли ключевые сотрудники по безопасности, в том числе соучредитель и главный научный сотрудник Илья Суцкевер и Ян Лейке, которые были откровенно обеспокоены приоритетностью процессов безопасности в компании. Роль Накасоне будет иметь решающее значение в решении этих проблем и обеспечении того, чтобы системы искусственного интеллекта OpenAI разрабатывались с учётом требований безопасности.
Creator has disabled comments for this post.

Subscription levels

Постоянный читатель

$ 17,3$ 8,7 per month
50%
Идеально подходит для постоянных читателей, которые заинтересованы быть в курсе последних тенденций в мире кибербезопасности

Профессионал

$ 35 per month
Предназначено для ИТ-специалистов, экспертов, и энтузиастов, которые готовы погрузится в сложный мир ИБ + Q&A
Go up