Ученый призвал к госрегулированию ИИ из-за угрозы катастрофы
Один из ведущих специалистов в области ИИ, лауреат Нобелевской премии по физике Джеффри Хинтон, заявил, что технологии могут стать смертельной угрозой для человечества. По его словам, если развитие искусственного интеллекта продолжится в нынешнем темпе, а контроль со стороны государств останется слабым, уже через 30 лет ИИ может привести к катастрофическим последствиям.