<div dir="ltr">***************************************<br>ICMI 2020: Call for Long and Short Papers<br><a href="http://icmi.acm.org/2020/index.php?id=cfp">http://icmi.acm.org/2020/index.php?id=cfp</a><br>25-29 Oct 2020, Utrecht, The Netherlands<br>***************************************<br><br>Call for Long and Short Papers<br><br>The 22nd International Conference on Multimodal Interaction (ICMI 2020) will be held in Utrecht, the Netherlands.  ICMI is the premier international forum for multidisciplinary research on multimodal human-human and human-computer interaction, interfaces, and system development. The conference focuses on theoretical and empirical foundations, component technologies, and combined multimodal processing techniques that define the field of multimodal interaction analysis, interface design, and system development. <br><br>We are keen to showcase novel input and output modalities and interactions to the ICMI community. ICMI 2020 will feature a single-track main conference which includes: keynote speakers, technical full and short papers (including oral and poster presentations), demonstrations, exhibits and doctoral spotlight papers. The conference will also feature workshops and grand challenges. The proceedings of ICMI 2020 will be published by ACM as part of their series of International Conference Proceedings and Digital Library.<br><br>We also want to welcome conference papers from behavioral and social sciences. These papers allow us to understand how technology can be used to increase our scientific knowledge and may focus less on presenting technical or algorithmic novelty. For this reason, the "novelty" criteria used during ICMI 2020 review will be based on two sub-criteria (i.e., scientific novelty and technical novelty as described below). Accepted papers at ICMI 2020 only need to be novel on one of these sub-criteria. In other words, a paper which is strong on scientific knowledge contribution but low on algorithmic novelty should be ranked similarly to a paper that is high on algorithmic novelty but low on knowledge discovery.<br><br>- Scientific Novelty: Papers should bring some new knowledge to the scientific community. For example, discovering new behavioral markers that are predictive of mental health or how new behavioral patterns relate to children’s interactions during learning. It is the responsibility of the authors to perform a proper literature review and clearly discuss the novelty in the scientific discoveries made in their paper.<br>- Technical Novelty: Papers reviewed with this sub-criterion should include novelty in their computational approach for recognizing, generating or modeling data. Examples include: novelty in the learning and prediction algorithms, in the neural architecture, or in the data representation. Novelty can also be associated to a new usage of an existing approach.<br><br>Please see the Submission Guidelines for Authors <a href="https://icmi.acm.org/2020/index.php?id=authors">https://icmi.acm.org/2020/index.php?id=authors</a> for detailed submission instructions.<br><br>This year’s conference theme: In this information age, technological innovation is at the core of our lives and rapidly transforming and impacting the state of the world in art, culture, and society, and science as well - the borders between classical disciplines such as humanities and computer science are fading. In particular, we wonder how multimodal processing of human behavioural data can create meaningful impact in art, culture, and society practices. And vice versa, how does art, culture, and society influence our approaches and techniques in multimodal processing? As such, this year, ICMI welcomes contributions on our theme for Multimodal processing and representation of Human Behaviour in Art, Culture, and Society. <br><br>Additional topics of interest include but are not limited to:<br><br>- Affective computing and interaction<br>- Cognitive modeling and multimodal interaction<br>- Gesture, touch and haptics<br>- Healthcare, assistive technologies<br>- Human communication dynamics<br>- Human-robot/agent multimodal interaction<br>- Interaction with smart environment<br>- Machine learning for multimodal interaction<br>- Mobile multimodal systems<br>- Multimodal behavior generation<br>- Multimodal datasets and validation<br>- Multimodal dialogue modeling<br>- Multimodal fusion and representation<br>- Multimodal interactive applications<br>- Speech behaviors in social interaction<br>- System components and multimodal platforms<br>- Visual behaviours in social interaction<br>- Virtual/augmented reality and multimodal interaction<br><br>Important Dates<br><br>Paper Submission: May 4, 2020 (11:59pm GMT-7)<br>Reviews to authors: July 3, 2020<br>Rebuttal due: July 10, 2020 (11:59pm GMT-7)<br>Paper notification: July 20, 2020<br>Camera ready paper: August 17, 2020<br>Presenting at main conference: October 25-29, 2020<br><div dir="ltr" class="gmail_signature"><div dir="ltr"><div><div dir="ltr"><div><div dir="ltr"><div><div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr"></div></div></div></div></div></div></div></div></div></div></div></div></div></div></div></div><div><br></div><div>--</div><div>Regards,</div><div>Leimin</div><div dir="ltr" class="gmail_signature" data-smartmail="gmail_signature"><div dir="ltr"><div><div dir="ltr"><div><div dir="ltr"><div><div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr"></div></div></div></div></div></div></div></div></div></div></div></div></div></div></div></div></div>