Ведущие исследователи и разработчики ИИ предостерегают от «риска вымирания» в своем новом заявлении
«Снижение риска вымирания от ИИ должно стать глобальным приоритетом наряду с другими рисками общественного масштаба, такими как пандемии и ядерная война», — гласит заявление, опубликованное некоммерческой организацией Center for AI Safety из Сан-Франциско.
На данный момент заявление подписали более 300 человек, среди которых Демис Хассабис (Google DeepMind), Сэм Альтман (OpenAI), Дарио Амодей (Anthropic) а также Джеффри Хинтон и Юшуа Бенжио — исследователи ИИ, получившие в 2018 году премию Тьюринга.
https://www.safe.ai/statement-on-ai-risk
—
@aioftheday — новости вокруг искусственного интеллекта
«Снижение риска вымирания от ИИ должно стать глобальным приоритетом наряду с другими рисками общественного масштаба, такими как пандемии и ядерная война», — гласит заявление, опубликованное некоммерческой организацией Center for AI Safety из Сан-Франциско.
На данный момент заявление подписали более 300 человек, среди которых Демис Хассабис (Google DeepMind), Сэм Альтман (OpenAI), Дарио Амодей (Anthropic) а также Джеффри Хинтон и Юшуа Бенжио — исследователи ИИ, получившие в 2018 году премию Тьюринга.
https://www.safe.ai/statement-on-ai-risk
—
@aioftheday — новости вокруг искусственного интеллекта