Абдулла Аль Заквани
Представьте, что вы находитесь в автономном автомобиле, который получает направление от интеллектуальных светофоров. На скорости 200 км/ч вы понимаете, что фактический механизм обучения управляется ложными срабатываниями, а фактические решения, принимаемые вашими роботами с искусственным интеллектом, случайны. Люди всегда развивались со страхом перед тем, что они создают. В социальной жизни, с момента изобретения колеса и до появления современного компьютера, человек всегда боялся, что машина заберет у нас все рабочие места. Мы всегда забываем о том, что эти технологии освобождают наше время, чтобы лучше заниматься вещами, которые важнее, нашим здоровьем и комфортом. В настоящее время бум искусственного интеллекта попал в ту же категорию, положительную как платформа для возможностей и отрицательную, что «ОНИ ЗАХВАТЯТ МИР», а не только наши рабочие места. Оставив страх в стороне, следует проявлять осторожность не в том, чтобы сделать роботов умными «и захватить мир», а, что еще важнее, в том, чтобы развивать информацию и возможности производителей. Минимизация ложных положительных результатов и принудительное обучение алгоритмов ИИ должны быть четко устранены, в то время как правильный (возможно, лучший) алгоритм, созданный действительно способным ученым по данным, способным читать и понимать концепцию, которую они реализуют, должен быть продвинут. Существует потребность в проекте, подобном Kristel Clear Engine, и его поддержке для фокусировки и возникающей проблемы ложных положительных результатов и эмоционального интеллекта и их связи.