Advertisement

重现昔日照片(CVPR 2020口头报告)。

  •  5星
  •     浏览量: 0
  •     大小:None
  •      文件类型:None


简介:
通过PyTorch的官方实施,这项名为“旧照片还原”的项目旨在让昔日照片重现生机,并在CVPR2020会议上获得了口头报告。该研究团队通过深度空间转换技术对老照片进行恢复,目前正接受《Pattern Analysis and Machine Intelligence》期刊的同行评审(已提交多篇,包括PAMI 1、2、3、4、2、1、2 1香港城市大学, 2 Microsoft亚洲研究, 3 Microsoft Cloud AI, 4 USTC)。该项目的代码源于我们的学术研究项目,其主要目标是展示研究的核心思路,因此我们在工程优化方面并未进行过多投入。此外,我们也将致力于解决一些常见的挑战性问题,例如内存资源限制以及分辨率的约束,虽然会关注这些问题,但不会涉及诸如推理速度提升或使用FastAPI进行部署等工程层面的改进。

全部评论 (0)

还没有任何评论哟~
客服
客服
  • RandLA-Net: 在TensorFlow中的实CVPR 2020
    优质
    RandLA-Net是针对点云场景分类与分割提出的一种高效的深度学习网络模型,在CVPR 2020上进行了口头报告,并在此提供了基于TensorFlow的实现。 这是RandLA-Net(CVPR 2020,口头演示)的官方实现版本。RandLA-Net是一种简单高效的神经网络架构,用于大规模3D点云的语义分割。 该代码已在Ubuntu 16.04上使用Python 3.5、Tensorflow 1.11、CUDA 9.0和cuDNN 7.4.1进行了测试。要克隆存储库,请执行以下命令: ``` git clone --depth=1 https://github.com/QingyongHu/RandLA-Net && cd RandLA-Net ``` 设置Python环境: ```shell conda create -n randlanet python=3.5 source activate randlanet ```
  • Fast_RNRR: 稳健非刚性配准的拟牛顿求解器源码(CVPR 2020
    优质
    Fast_RNRR是一款针对稳健非刚性图像配准问题开发的高效拟牛顿法求解工具,曾在CVPR 2020会议上以口头报告形式展示。 Fast_RNRR 存储库包含论文“用于稳健的非刚性注册的拟牛顿求解器”(CVPR2020)的源代码。该代码受专利保护,仅限于研究目的使用。 依存关系汇编: - 该代码使用Eigen和OpenMesh进行编译。 - 已在Ubuntu 16.04 (gcc5.4.0) 和 Windows 上通过 Visual Studio 2015 测试过。 请按照以下步骤来编译代码: 1. 确保已安装 Eigen 和 OpenMesh 库; 2. 在代码的根目录中创建一个名为 build 的构建文件夹; 3. 运行 cmake 命令以生成 build 文件并编译源码。在 Linux 上,在该 build 文件夹内执行以下命令: ``` $ cmake -DCMAKE_BUILD_TYPE=Release . ```
  • SuperGlue预训练网络:学习匹配的图神经网络功能(CVPR 2020
    优质
    SuperGlue是CVPR 2020上以口头报告形式展示的一种创新性的预训练网络模型。该模型采用图神经网络技术,专注于学习图像特征间的匹配关系,显著提升了跨域视觉识别与匹配任务的性能水平。 SuperGlue 是 Magic Leap 在 2020 年 CVPR 研究项目中的成果。它是一个图形神经网络,结合了最佳匹配层,该层经过训练可以对两组稀疏图像特征进行匹配。此存储库包含 PyTorch 代码和预训练权重,用于在关键点和描述符之上运行 SuperGlue 匹配网络。给定一对图像后,您可以使用此存储库在整个图像对中提取匹配的特征。SuperGlue 充当“中间层”,在一个端到端体系结构中执行上下文聚合、匹配和过滤。 有关更多详细信息,请参阅其全文 PDF 文档。
  • MATLAB尺寸检测代码-DSC: CVPR 2018 () 和 TPAMI 2019
    优质
    这段工作介绍了在CVPR 2018会议上以口头报告形式展示,并后被TPAMI期刊接受发表的MATLAB尺寸检测代码DSC,为物体尺度估计提供了一种有效的方法。 MATLAB尺寸检测代码用于阴影检测(及去除)的方向感知空间上下文功能是由香港中文大学的胡小伟编写的。 引用: @InProceedings{Hu_2018_CVPR, 作者={胡小伟,傅志荣,朱磊,秦静和衡安}, 标题={用于阴影检测的方向感知空间上下文特征}, 会议名称={IEEE计算机视觉与模式识别大会(CVPR)}, 页码={7454--7462}, 年份={2018}} @article{hu2019direction, 作者={胡小伟,傅志荣,朱磊,秦静和衡安}, 标题={用于阴影检测与去除的方向感知空间上下文特征}, 期刊名称={IEEE模式分析与机器智能交易}, 年份={2019}, 注意=即将出版} SBU和UCF数据集上的阴影检测结果可以找到。有关新的UCF片段(某些作品使用过)的阴影检测结果,请参见相关资料;误码率:10.38,准确度:0.95
  • Panoptic-DeepLab:基于PyTorch的CVPR 2020论文
    优质
    《Panoptic-DeepLab》是CVPR 2020的一篇重要论文,该代码库提供了基于PyTorch框架下的模型实现,用于全景分割任务的研究与应用。 Panoptic-DeepLab 是一种最先进的自下而上的全景分割方法,在CVPR 2020上发布。它的目标是为输入图像中的每个像素分配语义标签(例如人、狗、猫)和实例标签(对于属于物体类别的像素,使用ID如1、2、3等)。这是基于Detectron2的CVPR 2020论文的一个PyTorch重新实现版本。 此外,在此仓库中现在还支持利用DeepLabV3和DeepLabV3+进行分割模型的操作。在消息[2021/01/25],我们发现COCO实验中的旧配置文件存在错误(对于COCO,需要将MAX_SIZE_TRAIN从640更改为960)。现在我们已经复制了COCO的结果(35.5 PQ)。 在消息[2020/12/17]中,支持COCO数据集。而在消息[2020/12/11],Detectron2版本的Panoptic-DeepLab现在支持DepthwiseSeparableConv2d。
  • CVPR2019.xlsx
    优质
    该文档包含的是在CVPR 2019会议上被选为口头报告的相关研究内容和成果总结。CVPR是计算机视觉领域的顶级国际会议之一。 CVPR2019的口头报告整理,内容涉及人工智能、机器学习和计算机视觉等领域。适用于学习和科研使用。
  • SingleHDR: [CVPR 2020] 学习逆向摄像管道以建单张图像的HDR - 源码
    优质
    SingleHDR是一项在CVPR 2020上展示的研究成果,通过学习逆向摄像头处理流程来从单一图片中重建高动态范围(HDR)影像。该研究提供源代码供学术界使用和进一步探索。 重要更新(2020/09/13):培训代码已上传,请参考training_code文件夹,并按照自述文件中的指示操作。 重要更新(2020/07/10):该网页和数据集的链接将无法访问。以下提供的是指向项目网站和数据集的临时链接,带来不便敬请谅解。 从单个低动态范围(LDR)输入图像中恢复高动态范围(HDR)图像具有挑战性,因为缺少由于相机传感器量化及饱和导致曝光不足或过曝区域中的细节信息。与现有的基于学习的方法相比,我们的核心思想是将LDR图像形成管道的领域知识整合到模型中。我们将HDR转为LDR的过程建模为(1)动态范围裁剪;(2)非线性映射过程,该映射由相机响应函数确定;以及(3)量化步骤。接着我们建议学习三个专用卷积神经网络(CNN),分别用于逆转这些步骤。通过将问题分解成特定的子任务,施加有效的物理约束来促进单个子网的工作性能。
  • GhostNet.pytorch: [CVPR 2020] GhostNet 架构
    优质
    GhostNet.pytorch 是一个基于PyTorch实现的轻量级深度学习模型,用于图像分类。该代码实现了在CVPR 2020上提出的GhostNet架构,以高效生成特征表示著称。 此仓库仅提供GhostNet的演示代码。该存储库包含了CVPR 2020论文《廉价运营带来的更多功能》在PyTorch中的实现版本。 要求:已验证该代码可在Python3以及PyTorch 1.0+环境下运行。 用法示例: ```python import torch from ghost_net import ghost_net model = ghost_net(width_mult=1.0) input = torch.randn(32, 3, 224, 224) y = model(input) print(y) ``` GhostNet简介:《廉价运营带来的更多功能》。CVPR2020。 韩开,王云和,田琦,郭建元,徐春景,徐昌提出的方法在性能上超越了其他SOTA轻量级CNN模型(如MobileNetV)。
  • CVPR 2021 论文与代码解读: CVPR 2021/2020/2019...
    优质
    本系列文章深度解析CVPR会议近年(2019-2021)精选论文,并附有相关代码,旨在帮助研究者快速掌握前沿技术与方法。 推荐阅读:CVPR 2021/CVPR 2020/CVPR 2019/CVPR 2018/CVPR 2017的论文解读汇总,包括Papers、Codes、Project和Paper reading等部分。以下是论文分类汇总: - CVPR 2021最新论文分类汇总(持续更新) - CVPR 2020论文下载/代码/解读 - CVPR 2019全部论下载及开源代码的获取方式,共包含1294篇链接。 - CVPR 2019论文分方向盘点 - CVPR 2019论文直播分享回放:点云分割、目标检测和单目标跟踪等主题。
  • Stargan-V2: StarGAN v2的官方PyTorch实CVPR 2020
    优质
    简介:StarGAN-v2是继StarGAN之后的升级版模型,本项目提供了其官方的PyTorch实现。该代码在CVPR 2020上展示,并包含多种先进的图像到图像翻译功能。 StarGAN v2:多个域的多样化图像合成*,* *,*,在CVPR 2020中。(*表示相等贡献) 良好的图像到图像转换模型应学习不同视觉领域之间的映射,并且满足以下属性:1)生成图像的多样性和2)多领域的可扩展性。现有方法解决了其中一个问题——对于所有域而言,其多样性有限或需要多个独立模型。我们提出了StarGAN v2框架,它同时解决这两个问题并在基线之上显示出明显改善的结果。 在CelebA-HQ和新的动物面部Kong数据集(AFHQ)上的实验验证了我们在视觉质量、多样性和可伸缩性方面的优越表现。为了更好地评估图像到图像的翻译模型,我们发布了具有较大领域间及域内差异的高质量动物脸的数据集AFHQ。 StarGAN v2的相关代码、预训练模型和数据集可在clovaai stargan-v2中找到。