Приложение Cloud Vision от Google, определяющее, что изображено на фотографиях, больше не будет делать различий между мужчинами и женщинами, сообщили разработчики платформы. Как пояснили в компании, пол человека не всегда удается определить по внешнему виду.
Инструмент Google под названием Cloud Vision, призванный определять объекты и одушевленных существ на фотографиях, больше не будет использовать гендерные тэги «мужчина» и «женщина», сообщает Business Insider.
В электронном письме, адресованном разработчикам, использующим Cloud Vision, Google заявила, что отныне искусственный интеллект при выявлении человека будет использовать тэг «персона», который является гендерно-нейтральным.
В Google уточнили, что определить гендер человека только по внешнему виду не представляется возможным. Кроме того, компания сослалась на собственный этикет, подчеркнув, что выявление пола человека по фотографии может привести к предвзятости в отношении того или иного индивида.
Business Insider протестировал инструмент после добавления изменений и выяснил, что искусственный интеллект действительно называет всех людей на снимках исключительно «персонами».
Предвзятость искусственного интеллекта широко обсуждается в современном технологическом обществе, которое указывает, что пробелы в обучении ИИ могут приводить к несправедливым суждениям.
Условно, если человек, «тренирующий» искусственный интеллект, имеет некоторые предрассудки, они передадутся и машине, которая не сможет судить непредвзято.
Специалист Mozilla по вопросам предвзятости ИИ Фредерика Кальтхойнер назвала решение Google отказаться от определения гендера по фото «очень позитивным».
https://news.rambler.ru/internet/43731610/?utm_content=news_media&utm_medium=read_more&utm_source=copylink
Инструмент Google под названием Cloud Vision, призванный определять объекты и одушевленных существ на фотографиях, больше не будет использовать гендерные тэги «мужчина» и «женщина», сообщает Business Insider.
В электронном письме, адресованном разработчикам, использующим Cloud Vision, Google заявила, что отныне искусственный интеллект при выявлении человека будет использовать тэг «персона», который является гендерно-нейтральным.
В Google уточнили, что определить гендер человека только по внешнему виду не представляется возможным. Кроме того, компания сослалась на собственный этикет, подчеркнув, что выявление пола человека по фотографии может привести к предвзятости в отношении того или иного индивида.
Business Insider протестировал инструмент после добавления изменений и выяснил, что искусственный интеллект действительно называет всех людей на снимках исключительно «персонами».
Предвзятость искусственного интеллекта широко обсуждается в современном технологическом обществе, которое указывает, что пробелы в обучении ИИ могут приводить к несправедливым суждениям.
Условно, если человек, «тренирующий» искусственный интеллект, имеет некоторые предрассудки, они передадутся и машине, которая не сможет судить непредвзято.
Специалист Mozilla по вопросам предвзятости ИИ Фредерика Кальтхойнер назвала решение Google отказаться от определения гендера по фото «очень позитивным».
https://news.rambler.ru/internet/43731610/?utm_content=news_media&utm_medium=read_more&utm_source=copylink