Стартап в области искусственного интеллекта DeepSeek, который стал предметом широких дискуссий в международной среде в прошлом году, уже был принят как небезопасный и неэтичный проект, вызывающий опасения по поводу конфиденциальности в нескольких странах.
Так, нейронная сеть была подвержена запрету в таких регионах, как Италия, Тайвань, Техас, Австралия, а также в Конгрессе США и в Военно-морских силах страны. Критические замечания в адрес китайской разработки также поступили от представителей NASA и Пентагона.
Вот основные факторы, по которым DeepSeek был отнесен к проектам с высоким уровнем риска в указанных странах и учреждениях:
- угроза как национальной, так и информационной безопасности;
- вероятность утечек данных;
- распространение вредоносного ПО, способного инфицировать устройства;
- сбор конфиденциальной информации пользователей;
- вопросы этики и безопасности;
- подрыв национальной безопасности.
Помимо упомянутых факторов, специалисты также поднимают вопрос о недостаточной прозрачности алгоритмов DeepSeek, что может привести к непредсказуемым последствиям в случае их использования в критических системах. Непрозрачность разработки затрудняет возможность проведения независимых аудитов и оценки ее влияния на общество.
В результате, в ряде стран DeepSeek был исключен из магазинов приложений AppStore и PlayMarket, а свыше ста крупных компаний и организаций ввели официальный запрет на использование данной нейросети своими сотрудниками даже в личных целях.
Представители общественности также призывают к разработке международных стандартов для этического использования искусственного интеллекта, чтобы предотвратить риски, связанные с такими проектами, как DeepSeek.
Дополнительные новости из сферы экономики и криптовалют услышите на MyBuh.kz.