25Glenn Jocher Ayush Chaurasia Alex Stoken Jirka Borovec NanoCode012 Yonghye Kwon TaoXie Kalen Michael Jiacong Fang imyhxy Lorna Colin Wong Zeng Yifu Abhiram V Diego Montes Zhiqiang Wang Cristi Fati J
[25] Glenn Jocher,Ayush Chaurasia,Alex Stoken,Jirka Borovec,NanoCode012,Yonghye Kwon,TaoXie,Kalen Michael,Jiacong Fang,imyhxy,Lorna,Colin Wong,(Zeng Yifu),Abhiram V,Diego Montes,Zhiqiang Wang,Cristi Fati,Jebastin Nadar,Laughing,UnglvKitDe,tkianai,yxNONG,Piotr Skalski,Adam Hogan,Max Strobel,Mrinal Jain,Lorenzo Mammana和xylieong。ultralytics/yolov5:v6.2- YOLOv5分类模型,Apple M1,可重现性,ClearML和Deci.ai集成,2022年8月。 Kimmo Karkkainen和Jungseock Joo。FairFace:用于平衡种族,性别和年龄的面部属性数据集以进行偏差测量和缓解。在WACV,2021年。 Ranjay Krishna,Yuke Zhu,Oliver Groth,Justin Johnson,Kenji Hata,Joshua Kravitz,Stephanie Chen,Yannis Kalantidis,Li-Jia Li,David A Shamma等。Visual Genome:使用众包密集图像注释连接语言和视觉。IJCV,123(1):32-73,2017年。 Gen Li,N. Duan,Yuejian Fang,Daxin Jiang和M. Zhou。Unicoder-VL:一种用于视觉和语言的通用编码器,通过跨模态预训练。在AAAI,2020年。 Xiujun Li,Xi Yin,Chunyuan Li,Pengchuan Zhang,Xiaowei Hu,Lei Zhang,Lijuan Wang,Houdong Hu,Li Dong,Furu Wei等。Oscar:用于视觉语言任务的对象-语义对齐预训练。在ECCV,2020年。 [30] Tsung-Yi Lin,Michael Maire,Serge Belongie,James Hays,Pietro Perona,Deva Ramanan,Piotr Dollar和C Lawrence´ Zitnick。Microsoft COCO:上下文中的常见对象。在ECCV,2014年。 Jiasen Lu,Dhruv Batra,Devi Parikh和Stefan Lee。Vilbert:为视觉语言任务预训练的任务不可知视觉语言表示。NeurIPS,2019年。 Nicole Meister,Dora Zhao,Angelina Wang,Vikram V Ramaswamy,Ruth Fong和Olga Russakovsky。视觉数据集中的性别偏见。arXiv预印本arXiv:2206.09191,2022年。 Ron Mokady,Amir Hertz和Amit H Bermano。ClipCap:图像字幕的剪辑前缀。arXiv预印本arXiv:2111.09734,2021年。 Jahna Otterbacher,Pınar Barlas,Styliani Kleanthous和Kyriakos Kyriakou。我们如何谈论其他人?自然语言图像描述中的群体(不)公平性。在AAAI HCOMP,2019年。 E Ashby Plant,Janet Shibley Hyde,Dacher Keltner和Patricia G Devine。情绪的性别刻板印象。《女性心理学季刊》,24(1):81-92,2000年。 Bryan A Plummer,Liwei Wang,Chris M Cervantes,Juan C Caicedo,Julia Hockenmaier和Svetlana Lazebnik。Flickr30k实体:为更丰富的图像到句子模型收集区域到短语的对应关系。在ICCV,2015年。 Alec Radford,Jong Wook Kim,Chris Hallacy,Aditya Ramesh,Gabriel Goh,Sandhini Agarwal,Girish Sastry,Amanda Askell,Pamela Mishkin,Jack Clark等。从自然语言监督中学习可迁移的视觉模型。在ICML,2021年。
原文地址: http://www.cveoy.top/t/topic/hTwT 著作权归作者所有。请勿转载和采集!