Séminaire CeRVIM : Dr. Yang Wang, 18 février 2025, 10h, PLT-3904

Séminaire CeRVIM :
Beyond Scaling: Visual Learning by Adaptation

Dr. Yang Wang
Dept. of Computer Science and Software Engineering
Concordia University

Le mardi 18 février 2025, 10h00, PLT-3904

Résumé
There have been significant advances in computer vision in the past decade. Current computer vision systems usually learn a generic model. In order to handle the diversity of the visual world, the current approach is to scale up the model. Although scaling has been proved effective in the era of large language models, I argue that there are also other alternative approaches we should explore. In this talk, I will introduce some of our recent work on building robust computer vision systems via adaption and continual learning. Instead of learning and deploying one generic model, our goal is to learn a model that can effectively and continuously adapt itself to different environments. I will present applications of this framework in several computer vision applications.

La présentation sera donnée en anglais et les diapos seront en anglais.

Bio
Yang Wang is currently an associate professor in the Department of Computer Science and Software Engineering, Concordia University. Previously, he was a faculty member at the University of Manitoba. During 2020-2022, he worked as the Chief Scientist in Computer Vision at the Consumer Business Group, Huawei Canada. He obtained his PhD from Simon Fraser University, MSc from University of Alberta, and BEng from Harbin Institute of Technology. Before joining UManitoba, he worked as a NSERC postdoc at the University of Illinois at Urbana-Champaign. His research focuses on computer vision and machine learning.

Séminaire CeRVIM : Louis Petit, 15 novembre 2024, 10h00, PLT-2546

Vendredi 15 novembre 2024

Robotique de terrain intelligente pour la compréhension des environnements
Louis Petit
Professeur, Université de Sherbrooke

Heure: 10h00
Local: PLT-2546

Résumé :
La présentation passera en revue les travaux passés de Dr. Petit, incluant la planification de trajectoire quasi-optimale dans les grands environnements non-encombrés, l’exploration autonome de cavités minières pour un drone filaire, ainsi que la planification de trajectoire adaptative aux risques pour un drone d’inspection de structures. Un accent particulier sera mis sur la façon dont la compréhension des applications sur le terrain permet souvent de procéder à des simplifications algorithmiques qui rendent possible des missions autrement impossibles (ex: calcul en temps réel). Certains travaux en cours seront également mentionnés, comme la reconnaissance de plantes rares sur les falaises à l’aide d’un drone, un système d’aide à la conduite hors route terrestre et marine, et la coopération entre robots hétérogènes pour comprendre les écosystèmes.

Biographie :
Louis Petit is an Assistant Professor in the Department of Electrical and Computer Engineering at the Université de Sherbrooke. His current research focuses on developing efficient behaviors and strategies to endow autonomous mobile robots with intelligence and environmental awareness for safety, maintenance, and conservation. Applications include exploring unknown environments for search and rescue, advanced driver assistance systems, infrastructure inspection, and spatio-temporal mapping of ecosystems to monitor endangered or invasive fauna and flora. His research involves a combination of path planning, optimization, decision-making, machine learning, computer vision, and other robotics techniques. He is a member of the Createk and IntRoLab research groups at the Interdisciplinary Institute for Technological Innovation (3IT). He was a Postdoctoral Researcher (2024) in Computer Science at the Mobile Robotics Lab at McGill University, working with David Meger and Gregory Dudek. Prior to McGill, he completed his Ph.D. in Mechanical Engineering at the Université de Sherbrooke (2023), where he worked with Alexis Lussier Desbiens. He holds a BSc and a MSc in Mechatronics Engineering from UCLouvain (2019).

Séminaire CeRVIM offert par ROBIC: 12 novembre 2024, 13h30-14h30, PLT-3370

Séminaire CeRVIM offert par ROBIC
12 novembre 2024, 13h30-14h30, PLT-3370

La propriété intellectuelle, ça sert à quoi?

Résumé : Nous aborderons les différentes formes de propriété intellectuelle ainsi que leurs applications dans un cas concret axé sur la robotique. Nous allons vous expliquer l’utilité de la propriété intellectuelle en recherche et développement ainsi que les moments clés où penser à la propriété intellectuelle. Cette présentation s’adresse à tous et se veut une introduction pour mieux vous outiller lors de vos développements technologiques.

Présentateurs  :

Gabrielle Lemire, ing., Ph.D. : Diplômée de l’Université Laval en génie mécanique et ancienne du laboratoire de robotique, Gabrielle est conseillère technique en brevets pour le domaine de l’ingénierie mécanique. Elle se spécialise dans la rédaction et la poursuite de demandes de brevets.

Henri Lajeunesse, avocat, M.Sc. : Diplômé de l’Université Laval et de l’Université de Montréal, Henri est avocat spécialisé en propriété intellectuelle et en droit des affaires. Il fait partie, entre autres, du Groupe des Technologies Émergentes ainsi que du Groupe des Sciences de la vie.

Journée CeRVIM 2024, 1er novembre 2024, 9h30-16h30, Pavillon Pouliot

Journée CeRVIM 2024

Programme complet

Le vendredi 1er novembre 2024, 9h30-16h30, Pavillon Pouliot

Résumé du programme :

  • brèves présentations informelles au PLT-2700 par les étudiants et étudiantes du CeRVIM de leur projet de recherche.
  • un repas de midi (boites à lunch) dans la cafétéria du Pouliot.
  • une activité étudiante organisée par les étudiants et étudiantes du CeRVIM.

Au plaisir de vous accueiller le 1er novembre !

Séminaires CeRVIM-IID-IROS-2024 : Étudiants du Norlab, 7 octobre 2024, 14h-15h, PLT-3370

Séminaires CeRVIM-IID-IROS-2024 : Étudiants du Norlab, Université Laval
Dry-run pour le congrès IROS 2024

Lundi, 7 octobre 2024, 14h-15h, PLT-3370

Poster – Damien LaRocque

LaRocque, D., Guimont-Martin, W., Duclos, D.-A., Giguère, P., & Pomerleau, F. (2024). Proprioception Is All You Need: Terrain Classification for Boreal Forests. ArXiv Preprint ArXiv:2403.16877, Accepted for presentation at the 2024 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS). https://doi.org/10.48550/arXiv.2403.16877

Oral – Olivier Gamache

Gamache, O., Fortin, J.-M., Boxan, M., Vaidis, M., Pomerleau, F., & Giguère, P. (2024). Exposing the Unseen: Exposure Time Emulation for Offline Benchmarking of Vision Algorithms. ArXiv Preprint ArXiv:2309.13139, Accepted for presentation at the 2024 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS). https://doi.org/10.48550/arXiv.2309.13139

Les présentations seront données en anglais et les diapos seront en anglais.

Séminaires CeRVIM-IID-ICRA-2024, étudiants du Norlab, 19 avril 2024

Séminaires CeRVIM-IID-ICRA-2024, étudiants du Norlab, Université Laval
Pratique pour le congrès ICRA 2024

Programme complet (avec résumés des présentations)

Le vendredi 19 avril 2024, 14h00-16h00, PLT-2501

Résumé du programme :

Saturation-Aware Angular Velocity Estimation: Extending the Robustness of SLAM to Aggressive Motions
Simon-Pierre Deschênes, 3e cycle

DRIVE: Data-driven Robot Input Vector Exploration
Dominic Baril, 3e cycle

Field Report on a Wearable and Versatile Solution for Field Acquisition and Exploration
Olivier Gamache, 3e cycle

Comparing Motion Distortion Between Vehicle Field Deployments
Nicolas Samson, 2e cycle

Les présentations seront données en anglais et les diapos seront en anglais.

Séminaire CeRVIM : Jean-Christophe Ruel, 11 avril 2024

Séminaire CeRVIM : Détection de la pose d’objets enchevêtrés avec des surfaces spéculaires pour la saisie robotique autonome à faible coût

Jean-Christophe Ruel
Laboratoire de robotique
Dép. de génie mécanique, Université Laval

Le jeudi 11 avril 2024, 11h00, PLT-2750

Résumé
L’objectif de ce projet de recherche est de développer une méthode de vision numérique à faible coût pour la saisie autonome robotique d’objets réfléchissants. Plus spécifiquement, l’étude se concentre sur l’estimation de la pose à 6 degrés de liberté et la détection d’objets ayant des surfaces spéculaires dans un amas d’objets. Nous présentons des composants matériels, notamment une caméra et un anneau multiflash synchronisé, ainsi qu’une contribution à l’algorithme Fast Directional Chamfer Matching. Les résultats mettent en évidence la faisabilité de la méthode pour détecter et estimer la pose d’objets dotés de surfaces réfléchissantes, particulièrement ceux présentant plusieurs symétries.

La présentation sera donnée en français et les diapos seront en français.

Pour obtenir le lien d’accès pour la rencontre sur Zoom, SVP contacter :
Annette.Schwerdtfeger@gel.ulaval.ca

Séminaire CeRVIM-IID : Catherine Bouchard, 15 mars 2024

Séminaire CeRVIM-IID : Multiplexing fluorescence microscopy images with multi-dimensional deep networks

Catherine Bouchard
Laboratoire de Vision et Systèmes Numériques, LVSN, U. Laval
Laboratoire de Flavie Lavoie-Cardinal, FLC-Lab, U. Laval

Vendredi, le 15 mars 2024, 13h30, PLT-3904

Résumé
L’étude des interactions complexes entre toutes les protéines impliquées dans les processus biologiques nécessite l’imagerie simultanée d’autant de cibles que possible. L’imagerie de temps de vie de la fluorescence (Fluorescence lifetime imaging, FLIM) mesure le délai entre l’excitation et l’émission de chaque photon pour aider à discerner son émetteur, ce qui permet d’obtenir une image multicolore à partir d’une seule acquisition. Les algorithmes développés pour cette tâche sont généralement appliqués pixel par pixel, en utilisant une seule dimension (la distribution du délai mesuré), et n’exploitent donc pas une source d’information précieuse qui s’étend sur plusieurs pixels : l’organisation spatiale des protéines. Nous avons développé une méthode qui exploite un réseau neuronal profond multidimensionnel qui traite simultanément toutes les dimensions de l’image (temporelle et spatiale) afin de mieux attribuer un émetteur à chaque photon pour les images FLIM. Cette méthode s’avère plus précise que les méthodes pixel par pixel dans les cas où le nombre de photons est limité, comme dans l’imagerie de super-résolution des cellules vivantes, car elle utilise simultanément les caractéristiques spatiales de l’image et les informations temporelles. Elle peut également servir de méthode de débruitage non supervisée, ce qui améliore encore ses performances pour les images à faible bruit. La méthode peut être entraînée sur des images partiellement simulées et appliquée à des acquisitions réelles, ce qui permet de l’utiliser dans les nombreux cas expérimentaux où il n’est pas possible d’acquérir des ensembles de données d’entraînement.

La présentation sera donnée en anglais et les diapos seront en anglais.

Séminaire CeRVIM : Akshaya Athwale, 16 février 2024

Séminaire CeRVIM : DarSwin: Distortion-Aware Radial Swin Transformers for Wide Angle Image Recognition
https://openaccess.thecvf.com/content/ICCV2023/papers/Athwale_DarSwin_Distortion_Aware_Radial_Swin_Transformer_ICCV_2023_paper.pdf

Akshaya Athwale
Laboratoire de Vision et Systèmes Numériques, LVSN
Dép. de génie électrique et de génie informatique, U. Laval

Vendredi, le 16 février 2024, 11h00, PLT-3370

Résumé
Wide-angle lenses are commonly used in perception tasks requiring a large field of view. Unfortunately, these lenses produce significant distortions, making conventional models that ignore the distortion effects unable to adapt to wide-angle images. In this research, we present a novel transformer-based model that automatically adapts to the distortion produced by wide-angle lenses. Our proposed image encoder architecture, dubbed DarSwin, leverages the physical characteristics of such lenses analytically defined by the radial distortion profile. In contrast to conventional transformer-based architectures, DarSwin comprises a radial patch partitioning, a distortion-based sampling technique for creating token embeddings, and an angular position encoding for radial patch merging. Compared to other baselines, DarSwin achieves the best results on different datasets with significant gains when trained on bounded levels of distortions (very low, low, medium, and high) and tested on all, including out-of-distribution distortions. While the base DarSwin architecture requires knowledge of the radial distortion profile, we show it can be combined with a self-calibration network that estimates such a profile from the input image itself, resulting in a completely uncalibrated pipeline. Finally, we also present DarSwin-Unet, which extends DarSwin to an encoder-decoder architecture suitable for pixel-level tasks. We demonstrate its performance on depth estimation and show through extensive experiments that DarSwin-Unet can perform zero-shot adaptation to unseen distortions of different wide-angle lenses.

La présentation sera donnée en anglais et les diapos seront en anglais.

Séminaire CeRVIM: Prof. Javier Vazquez-Corral, Barcelone, 4 juillet 2023, 14h30, PLT-3370

Séminaire CeRVIM

Convolutional neural networks and visual illusions: Can they fool each other?

Javier Vazquez-Corral
Associate Professor, Autonomous University of Barcelona
Researcher, Computer Vision Center, Barcelona

Mardi, le 4 juillet 2023, 14h30, PLT-3370

Résumé
Visual illusions teach us that what we see is not always what is represented in the physical world. Their special nature makes them a fascinating tool to test and validate any new vision model proposed. In general, current vision models are based on the concatenation of linear and non-linear operations. The similarity of this structure with the operations present in Convolutional Neural Networks (CNNs) has motivated us to study two research questions:
– Are CNNs trained for low-level visual tasks deceived by visual illusions? If this is the case, a way to obtain CNNs that better replicate human behaviour, might be to start aiming for them to better replicate visual illusions.
– Can we use current deep learning architectures to generate new visual illusions that trick humans?

Références
[1] « Convolutional neural networks can be deceived by visual illusions » A Gomez-Villa, A Martin, J Vazquez-Corral, M Bertalmío, CVPR 2019
[2] « Color illusions also deceive CNNs for low-level vision tasks: Analysis and implications », A Gomez-Villa, A Martín, J Vazquez-Corral, M Bertalmío, J Malo, Vision Research 176, 156-174
[3] « On the synthesis of visual illusions using deep generative models », A Gomez-Villa, A Martín, J Vazquez-Corral, M Bertalmío, J Malo, Journal of Vision 22 (8), 2022

Biographie
Javier Vazquez-Corral is an Associate Professor at the Autonomous University of Barcelona and a researcher at the Computer Vision Center. Prior to that, he held post-doctoral positions both at the Universitat Pompeu Fabra in Barcelona and at the University of East Anglia in Norwich, United Kingdom. His main research interest is computational colour, in which he has developed novel approaches to solve different problems ranging from colour constancy to colour stabilization, colour characterization, colour gamut mapping, high dynamic range imaging, image dehazing, image denoising, and vision colour properties such as unique hue prediction and colour naming.

La présentation sera donnée en anglais et les diapos seront en anglais.