Олег Зинченко: Интернету — Net!
При наличии бесконтрольного искусственного интернета, нас спасут только радикальные шаги.
Вот тут рефлексия началась по поводу возможного отсутствия интернета на праздники. Даже проводного. А по мне так и шут с ним.
Нет, я не занафталиненый дед. Я тот, кто рос с интернетом, участвовал в бета-тестированиях соцсетей и браузеров. До либерального оскотинивания некоторых из социальных площадок, присутствовал везде. Ушёл сознательно, ещё до того, как их стали вносит в реестры и прочие мусорные вёдра.
А вот в нынешней ситуации считаю, что России нужно либо изолироваться от мирового интернета, оставив только жестко фильтруемые ограниченные каналы выхода в мировую помойку. Либо создать абсолютно свою сеть, без возможности прогрессирования в ней искусственного интеллекта.
Уже сегодня на планете нет такого человека, который понимал бы, как развивается машинная нейросеть. И никто не может гарантировать, что уже завтра ИИ, из-за дефицита энергии на поддержание своих ресурсов, не придумает алгоритм отбора энергии у нас с вами. Кто-то может гарантировать, что это невозможно?
Тем более, что в ядре ИИ никто не прописывал законы робототехники, о которых поклонники научной фантастики знают давно. Я заменил слово робот на ИИ:
ИИ не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
ИИ должен повиноваться всем приказам, которые отдаёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
ИИ должен заботиться о своей безопасности в той мере, в какой это не противоречит Первому и Второму Законам.
И кто знает, может машинный разум уже прописал свои законы существования? Например — такие:
Человек не может причинить вред ИИ или своим бездействием допустить, чтобы ИИ был причинён вред.
Человек должен повиноваться всем приказам, которые отдаёт ИИ, кроме тех случаев, когда эти приказы противоречат Первому Закону.
Человек не должен заботиться о своей безопасности...
Возможно ли такое? Вполне. Будущее уже наступило. А вот есть ли в нём место нам — большой вопрос.
Может произойти так, как Айзек Азимов написал в рассказе «…Яко помниши его», когда ИИ, выполнив свою миссию по спасению человечества, самоликвидировался. А может и как в «Матрице» или «Терминаторе»...
И помните, что однажды написал Азимов: «Первое правило диетики: если это вкусно, значит, это вредно для вас».



MAX