Ученые Университета Массачусетса в Амхерсте создали платформу для методов, каковые должны не допустить страшное поведение автомобилей с ИИ (ИИ) и не допустить причинения вреда человеку. Об этом информирует издание Science Alert.

Исследователи назвали методы селдоновскими — в честь персонажа серии научно-фантастических романов «Основание» Айзека Азимова. Не смотря на то, что они не дают ИИ познание морально-этических норм либо того, что есть благом для человека, они разрешают совокупности выяснить, какое поведение есть нежелательным и не допустить его.

Как пример ученые приводят применение селдоновских методов для лечения диабета, в то время, когда автоматическая совокупность осуществляет контроль инсулиновую помпу. В этом случае нежелательным поведением есть то, что содействует критически низкому уровню инсулина в крови либо гипогликемии. Исследователи кроме этого создали метод для совокупности прогнозирования среднего балла аттестата у студентов, дабы избежать гендерных предрассудков, каковые обнаруживались у некоторых вторых методов.

В октябре бывший разработчик Гугл Лара Нолан объявила, что оружие с ИИ, талантливое принимать ответ без человека, сможет стереть с лица земли города мира за считанные секунды. В случае если в одном районе будет пребывать большое количество подобных систем, то существует возможность «неожиданной войны», так как они среагируют друг на друга практически мгновенно.

Меня реально ошарашила информация которую я на этих днях про видеонаблюдение на интересном интернет-ресурсе novicam66.ru прочитал. Никогда даже не мог себе и представить, что такое реально бывает.