💩AGI может нас уничтожить, а в OpenAI слишком безответственно к этому подходят



Группа из девяти действующих и бывших сотрудников OpenAI выдвинула обвинения в сторону компании, заявив о царящей там культуре безответственности и секретности. Они считают, что OpenAI не принимает достаточных мер для предотвращения возможных опасностей, связанных с ИИ. Сотрудники утверждают, что компания стремясь создать общий искусственный интеллект (AGI), отдаёт приоритет прибыли и росту.



Кроме того, по словам инсайдеров, OpenAI использует жёсткие тактики для предотвращения критики. Сотрудников заставляют подписывать соглашения о неразглашении, из-за чего они не могут высказывать свои опасения насчёт ИИ.



🪅Насколько претензии инсайдеров обоснованны, пока неясно. Один из бывших сотрудников OpenAI мистер Кокотайло (Mr. Kokotajlo) также сообщил, что существует 50-процентная вероятность того, что AGI появится уже в 2027 году. Специалист думает, что такой продвинутый ИИ с 70-процентной вероятностью способен уничтожить человечество.



💬А вы верите в реальную угрозу AGI для человечества?



👾 — да

👍 — нет