Q:
Почему ученым по данным важно стремиться к прозрачности?
A:Прозрачность по существу важна в проектах по науке о данных и программах машинного обучения, отчасти из-за сложности и сложности, которая их ведет - потому что эти программы «обучаются» (генерируют вероятностные результаты), а не следуют заранее заданным инструкциям линейного программирования, и потому, что в результате может быть трудно понять, как технология делает выводы. Проблема «черного ящика» в алгоритмах машинного обучения, которые не могут быть полностью объяснены лицами, принимающими решения, является большой в этой области.
Имея это в виду, возможность освоить объяснимое машинное обучение или «объяснимый ИИ», вероятно, будет основным направлением в том, как компании стремятся к приобретению талантов для исследователя данных. Уже DARPA, организация, которая принесла нам Интернет, финансирует многомиллионное исследование объяснимого ИИ, пытаясь продвинуть навыки и ресурсы, необходимые для создания технологий машинного обучения и искусственного интеллекта, которые были бы прозрачны для человека.
Один из способов думать об этом состоит в том, что часто существует «стадия грамотности» развития талантов и «стадия гиперлитерации». Для ученого, занимающегося данными, традиционной стадией грамотности будет знание того, как составлять программы машинного обучения и как строить алгоритмы с такими языками, как Python; как строить нейронные сети и работать с ними. Стадия гиперлитерации - это способность овладеть объяснимым ИИ, обеспечить прозрачность в использовании алгоритмов машинного обучения и сохранить прозрачность, так как эти программы работают в направлении своих целей и задач своих обработчиков.
Еще один способ объяснить важность прозрачности в науке о данных состоит в том, что используемые наборы данных становятся все более изощренными и, следовательно, более потенциально навязчивыми в жизни людей. Другим важным фактором объяснимого машинного обучения и науки о данных является Европейское общее положение о защите данных, которое было недавно введено в действие, чтобы попытаться обуздать неэтичное использование личных данных. Используя GDPR в качестве тестового примера, эксперты могут увидеть, как необходимость объяснения проектов по науке о данных вписывается в вопросы конфиденциальности и безопасности, а также в деловую этику.
