<html>
<head>
<meta http-equiv="Content-Type" content="text/html; charset=utf-8">
</head>
<body style="word-wrap: break-word; -webkit-nbsp-mode: space; line-break: after-white-space;" class="">
<span style="caret-color: rgb(0, 0, 0); color: rgb(0, 0, 0);" class="">CALL FOR PAPERS: SIVA'23</span><br class="" style="caret-color: rgb(0, 0, 0); color: rgb(0, 0, 0);">
<span style="caret-color: rgb(0, 0, 0); color: rgb(0, 0, 0);" class="">Workshop on Socially Interactive Human-like Virtual Agents</span><br class="" style="caret-color: rgb(0, 0, 0); color: rgb(0, 0, 0);">
<span style="caret-color: rgb(0, 0, 0); color: rgb(0, 0, 0);" class="">From expressive and context-aware multimodal generation of digital humans to understanding the social cognition of real humans</span><br class="" style="caret-color: rgb(0, 0, 0); color: rgb(0, 0, 0);">
<br class="" style="caret-color: rgb(0, 0, 0); color: rgb(0, 0, 0);">
<span style="caret-color: rgb(0, 0, 0); color: rgb(0, 0, 0);" class="">Submission (open July, 22 2022): </span><a data-cke-saved-href="https://cmt3.research.microsoft.com/SIVA2023" href="https://cmt3.research.microsoft.com/SIVA2023" title="https://cmt3.research.microsoft.com/siva2023" target="_blank" rel="noreferrer noopener" class="">https://cmt3.research.microsoft.com/SIVA2023</a><br class="" style="caret-color: rgb(0, 0, 0); color: rgb(0, 0, 0);">
<span style="caret-color: rgb(0, 0, 0); color: rgb(0, 0, 0);" class="">SIVA'23 workshop: January, 4 or 5 2023, Waikoloa, Hawaii, </span><a data-cke-saved-href="https://www.stms-lab.fr/agenda/siva/detail/" href="https://www.stms-lab.fr/agenda/siva/detail/" title="https://www.stms-lab.fr/agenda/siva/detail/" target="_blank" rel="noreferrer noopener" class="">https://www.stms-lab.fr/agenda/siva/detail/</a><br class="" style="caret-color: rgb(0, 0, 0); color: rgb(0, 0, 0);">
<span style="caret-color: rgb(0, 0, 0); color: rgb(0, 0, 0);" class="">FG 2023 conference: January 4-8 2023, Waikoloa, Hawaii, </span><a data-cke-saved-href="https://fg2023.ieee-biometrics.org/" href="https://fg2023.ieee-biometrics.org/" title="https://fg2023.ieee-biometrics.org/" target="_blank" rel="noreferrer noopener" class="">https://fg2023.ieee-biometrics.org/</a><br class="" style="caret-color: rgb(0, 0, 0); color: rgb(0, 0, 0);">
<br class="" style="caret-color: rgb(0, 0, 0); color: rgb(0, 0, 0);">
<span style="caret-color: rgb(0, 0, 0); color: rgb(0, 0, 0);" class="">OVERVIEW</span><br class="" style="caret-color: rgb(0, 0, 0); color: rgb(0, 0, 0);">
<span style="caret-color: rgb(0, 0, 0); color: rgb(0, 0, 0);" class="">Due to the rapid growth of virtual, augmented, and hybrid reality together with spectacular advances in artificial intelligence, the ultra-realistic generation and animation of digital humans
 with human-like behaviors is becoming a massive topic of interest. This complex endeavor requires modeling several elements of human behavior including the natural coordination of multimodal behaviors including text, speech, face, and body, plus the contextualization
 of behavior in response to interlocutors of different cultures and motivations. Thus, challenges in this topic are two folds—the generation and animation of coherent multimodal behaviors, and modeling the expressivity and contextualization of the virtual agent
 with respect to human behavior, plus understanding and modeling virtual agent behavior adaptation to increase human’s engagement. The aim of this workshop is to connect traditionally distinct communities (e.g., speech, vision, cognitive neurosciences, social
 psychology) to elaborate and discuss the future of human interaction with human-like virtual agents. We expect contributions from the fields of signal processing, speech and vision, machine learning and artificial intelligence, perceptual studies, and cognitive
 and neuroscience. Topics will range from multimodal generative modeling of virtual agent behaviors, and speech-to-face and posture 2D and 3D animation, to original research topics including style, expressivity, and context-aware animation of virtual agents.
 Moreover, the availability of controllable real-time virtual agent models can be used as state-of-the-art experimental stimuli and confederates to design novel, groundbreaking experiments to advance understanding of social cognition in humans. Finally, these
 virtual humans can be used to create virtual environments for medical purposes including rehabilitation and training.</span><br class="" style="caret-color: rgb(0, 0, 0); color: rgb(0, 0, 0);">
<br class="" style="caret-color: rgb(0, 0, 0); color: rgb(0, 0, 0);">
<span style="caret-color: rgb(0, 0, 0); color: rgb(0, 0, 0);" class="">SCOPE</span><br class="" style="caret-color: rgb(0, 0, 0); color: rgb(0, 0, 0);">
<span style="caret-color: rgb(0, 0, 0); color: rgb(0, 0, 0);" class="">Topics of interest include but are not limited to:</span><br class="" style="caret-color: rgb(0, 0, 0); color: rgb(0, 0, 0);">
<br class="" style="caret-color: rgb(0, 0, 0); color: rgb(0, 0, 0);">
<span style="caret-color: rgb(0, 0, 0); color: rgb(0, 0, 0);" class="">+ Analysis of Multimodal Human-like Behavior</span><br class="" style="caret-color: rgb(0, 0, 0); color: rgb(0, 0, 0);">
<span style="caret-color: rgb(0, 0, 0); color: rgb(0, 0, 0);" class="">- Analyzing and understanding of human multimodal behavior (speech, gesture, face)</span><br class="" style="caret-color: rgb(0, 0, 0); color: rgb(0, 0, 0);">
<span style="caret-color: rgb(0, 0, 0); color: rgb(0, 0, 0);" class="">- Creating datasets for the study and modeling of human multimodal behavior</span><br class="" style="caret-color: rgb(0, 0, 0); color: rgb(0, 0, 0);">
<span style="caret-color: rgb(0, 0, 0); color: rgb(0, 0, 0);" class="">- Coordination and synchronization of human multimodal behavior</span><br class="" style="caret-color: rgb(0, 0, 0); color: rgb(0, 0, 0);">
<span style="caret-color: rgb(0, 0, 0); color: rgb(0, 0, 0);" class="">- Analysis of style and expressivity in human multimodal behavior</span><br class="" style="caret-color: rgb(0, 0, 0); color: rgb(0, 0, 0);">
<span style="caret-color: rgb(0, 0, 0); color: rgb(0, 0, 0);" class="">- Cultural variability of social multimodal behavior</span><br class="" style="caret-color: rgb(0, 0, 0); color: rgb(0, 0, 0);">
<br class="" style="caret-color: rgb(0, 0, 0); color: rgb(0, 0, 0);">
<span style="caret-color: rgb(0, 0, 0); color: rgb(0, 0, 0);" class="">+ Modeling and Generation of Multimodal Human-like Behavior</span><br class="" style="caret-color: rgb(0, 0, 0); color: rgb(0, 0, 0);">
<span style="caret-color: rgb(0, 0, 0); color: rgb(0, 0, 0);" class="">- Multimodal generation of human-like behavior (speech, gesture, face)</span><br class="" style="caret-color: rgb(0, 0, 0); color: rgb(0, 0, 0);">
<span style="caret-color: rgb(0, 0, 0); color: rgb(0, 0, 0);" class="">- Face and gesture generation driven by text and speech</span><br class="" style="caret-color: rgb(0, 0, 0); color: rgb(0, 0, 0);">
<span style="caret-color: rgb(0, 0, 0); color: rgb(0, 0, 0);" class="">- Context-aware generation of multimodal human-like behavior</span><br class="" style="caret-color: rgb(0, 0, 0); color: rgb(0, 0, 0);">
<span style="caret-color: rgb(0, 0, 0); color: rgb(0, 0, 0);" class="">- Modeling of style and expressivity for the generation of multimodal behavior</span><br class="" style="caret-color: rgb(0, 0, 0); color: rgb(0, 0, 0);">
<span style="caret-color: rgb(0, 0, 0); color: rgb(0, 0, 0);" class="">- Modeling paralinguistic cues for multimodal behavior generation</span><br class="" style="caret-color: rgb(0, 0, 0); color: rgb(0, 0, 0);">
<span style="caret-color: rgb(0, 0, 0); color: rgb(0, 0, 0);" class="">- Few-shots or zero-shot transfer of style and expressivity</span><br class="" style="caret-color: rgb(0, 0, 0); color: rgb(0, 0, 0);">
<span style="caret-color: rgb(0, 0, 0); color: rgb(0, 0, 0);" class="">- Slightly-supervised adaptation of multimodal behavior to context</span><br class="" style="caret-color: rgb(0, 0, 0); color: rgb(0, 0, 0);">
<br class="" style="caret-color: rgb(0, 0, 0); color: rgb(0, 0, 0);">
<span style="caret-color: rgb(0, 0, 0); color: rgb(0, 0, 0);" class="">+ Psychology and Cognition of of Multimodal Human-like Behavior</span><br class="" style="caret-color: rgb(0, 0, 0); color: rgb(0, 0, 0);">
<span style="caret-color: rgb(0, 0, 0); color: rgb(0, 0, 0);" class="">- Cognition of deep fakes and ultra-realistic digital manipulation of human-like behavior</span><br class="" style="caret-color: rgb(0, 0, 0); color: rgb(0, 0, 0);">
<span style="caret-color: rgb(0, 0, 0); color: rgb(0, 0, 0);" class="">- Social agents/robots as tools for capturing, measuring and understanding multimodal behavior (speech, gesture, face)</span><br class="" style="caret-color: rgb(0, 0, 0); color: rgb(0, 0, 0);">
<span style="caret-color: rgb(0, 0, 0); color: rgb(0, 0, 0);" class="">- Neuroscience and social cognition of real humans using virtual agents and physical robots</span><br class="" style="caret-color: rgb(0, 0, 0); color: rgb(0, 0, 0);">
<br class="" style="caret-color: rgb(0, 0, 0); color: rgb(0, 0, 0);">
<span style="caret-color: rgb(0, 0, 0); color: rgb(0, 0, 0);" class="">IMPORTANT DATES</span><br class="" style="caret-color: rgb(0, 0, 0); color: rgb(0, 0, 0);">
<span style="caret-color: rgb(0, 0, 0); color: rgb(0, 0, 0);" class="">Submission Deadline September, 12 2022 </span><br class="" style="caret-color: rgb(0, 0, 0); color: rgb(0, 0, 0);">
<span style="caret-color: rgb(0, 0, 0); color: rgb(0, 0, 0);" class="">Notification of Acceptance: October, 15 2022 </span><br class="" style="caret-color: rgb(0, 0, 0); color: rgb(0, 0, 0);">
<span style="caret-color: rgb(0, 0, 0); color: rgb(0, 0, 0);" class="">Camera-ready deadline: October, 31 2022</span><br class="" style="caret-color: rgb(0, 0, 0); color: rgb(0, 0, 0);">
<span style="caret-color: rgb(0, 0, 0); color: rgb(0, 0, 0);" class="">Workshop: January, 4 or 5 2023</span><br class="" style="caret-color: rgb(0, 0, 0); color: rgb(0, 0, 0);">
<br class="" style="caret-color: rgb(0, 0, 0); color: rgb(0, 0, 0);">
<span style="caret-color: rgb(0, 0, 0); color: rgb(0, 0, 0);" class="">VENUE</span><br class="" style="caret-color: rgb(0, 0, 0); color: rgb(0, 0, 0);">
<span style="caret-color: rgb(0, 0, 0); color: rgb(0, 0, 0);" class="">The SIVA workshop is organized as a satellite workshop of the IEEE International Conference on Automatic Face and Gesture Recognition 2023. The workshop will be collocated with the FG 2023
 and WACV 2023 conferences at the Waikoloa Beach Marriott Resort, Hawaii, USA.</span><br class="" style="caret-color: rgb(0, 0, 0); color: rgb(0, 0, 0);">
<br class="" style="caret-color: rgb(0, 0, 0); color: rgb(0, 0, 0);">
<span style="caret-color: rgb(0, 0, 0); color: rgb(0, 0, 0);" class="">ADDITIONAL INFORMATION AND SUBMISSION DETAILS</span><br class="" style="caret-color: rgb(0, 0, 0); color: rgb(0, 0, 0);">
<span style="caret-color: rgb(0, 0, 0); color: rgb(0, 0, 0);" class="">Submissions must be original and not published or submitted elsewhere. Short papers of 3 pages excluding references encourage submissions of early research in original emerging fields. Long
 paper of 6 to 8 pages excluding references promote the presentation of strongly original contributions, positional or survey papers. The manuscript should be formatted according to the Word or Latex template provided on the workshop website. All submissions
 will be reviewed by 3 reviewers. The reviewing process will be single-blinded. Authors will be asked to disclose possible conflict of interests, such as cooperation in the previous two years. Moreover, care will be taken to avoid reviewers from the same institution
 as the authors. Authors should submit their articles in a single pdf file in the submission website - no later than September, 12 2022. Notification of acceptance will be sent by October, 15 2022, and the camera-ready version of the papers revised according
 to the reviewers comments should be submitted by October, 31 2022. Accepted papers will be published in the proceedings of the FG'2023 conference. More information can be found on the SIVA website.</span><br class="" style="caret-color: rgb(0, 0, 0); color: rgb(0, 0, 0);">
<br class="" style="caret-color: rgb(0, 0, 0); color: rgb(0, 0, 0);">
<span style="caret-color: rgb(0, 0, 0); color: rgb(0, 0, 0);" class="">DIVERSITY, EQUALITY, AND INCLUSION</span><br class="" style="caret-color: rgb(0, 0, 0); color: rgb(0, 0, 0);">
<br class="" style="caret-color: rgb(0, 0, 0); color: rgb(0, 0, 0);">
<span style="caret-color: rgb(0, 0, 0); color: rgb(0, 0, 0);" class="">The format of this workshop will be hybrid online and onsite. This format proposes format of scientific exchanges in order to satisfy travel restrictions and COVID sanitary precautions,
 to promote inclusion in the research community (travel costs are high, online presentations will encourage research contributions from geographical regions which would normally be excluded), and to consider ecological issues (e.g., CO2 footprint). The organizing
 committee is committed to paying attention to equality, diversity, and inclusivity in consideration of invited speakers. This effort starts from the organizing committee and the invited speakers to the program committee.</span><br class="" style="caret-color: rgb(0, 0, 0); color: rgb(0, 0, 0);">
<br class="" style="caret-color: rgb(0, 0, 0); color: rgb(0, 0, 0);">
<br class="" style="caret-color: rgb(0, 0, 0); color: rgb(0, 0, 0);">
<span style="caret-color: rgb(0, 0, 0); color: rgb(0, 0, 0);" class="">ORGANIZING COMMITTEE</span><br class="" style="caret-color: rgb(0, 0, 0); color: rgb(0, 0, 0);">
<span style="caret-color: rgb(0, 0, 0); color: rgb(0, 0, 0);" class="">🌸 Nicolas Obin, STMS Lab (Ircam, CNRS, Sorbonne Université, ministère de la Culture)</span><br class="" style="caret-color: rgb(0, 0, 0); color: rgb(0, 0, 0);">
<span style="caret-color: rgb(0, 0, 0); color: rgb(0, 0, 0);" class="">🌸 Ryo Ishii, NTT Human Informatics Laboratories</span><br class="" style="caret-color: rgb(0, 0, 0); color: rgb(0, 0, 0);">
<span style="caret-color: rgb(0, 0, 0); color: rgb(0, 0, 0);" class="">🌸 Rachael E. Jack, University of Glasgow</span><br class="" style="caret-color: rgb(0, 0, 0); color: rgb(0, 0, 0);">
<span style="caret-color: rgb(0, 0, 0); color: rgb(0, 0, 0);" class="">🌸 Louis-Philippe Morency, Carnegie Mellon University</span><br class="" style="caret-color: rgb(0, 0, 0); color: rgb(0, 0, 0);">
<span style="caret-color: rgb(0, 0, 0); color: rgb(0, 0, 0);" class="">🌸 Catherine Pelachaud, CNRS - ISIR, Sorbonne Université</span><br class="" style="caret-color: rgb(0, 0, 0); color: rgb(0, 0, 0);">
<div class="" style="caret-color: rgb(0, 0, 0); color: rgb(0, 0, 0);">
<div dir="auto" class="" style="word-wrap: break-word; -webkit-nbsp-mode: space; line-break: after-white-space;">
<div dir="auto" class="" style="word-wrap: break-word; -webkit-nbsp-mode: space; line-break: after-white-space;">
<div dir="auto" class="" style="word-wrap: break-word; -webkit-nbsp-mode: space; line-break: after-white-space;">
<div dir="auto" class="" style="word-wrap: break-word; -webkit-nbsp-mode: space; line-break: after-white-space;">
<div dir="auto" class="" style="word-wrap: break-word; -webkit-nbsp-mode: space; line-break: after-white-space;">
<div class=""><br class="">
</div>
<div class=""><br class="">
</div>
<div class="">Prof. Rachael E. Jack, Ph.D.<br class="">
Professor of Computational Social Cognition<br class="">
School of Psychology & Neuroscience<br class="">
University of Glasgow<br class="">
Scotland, G12 8QB<br class="">
+44 (0) 141 330 5087</div>
<div class=""><br class="">
</div>
</div>
</div>
</div>
</div>
</div>
<br class="Apple-interchange-newline">
<img apple-inline="yes" id="5E1091E4-F02C-4F5D-9C01-4A1F49B554C8" class="" src="cid:11880D74-6D34-4656-B001-CB0A0540DFA1"></div>
<div class="">
<div dir="auto" style="font-family: Helvetica; font-size: 12px; font-style: normal; font-variant-caps: normal; font-weight: normal; letter-spacing: normal; text-align: start; text-indent: 0px; text-transform: none; white-space: normal; word-spacing: 0px; -webkit-text-stroke-width: 0px; text-decoration: none; caret-color: rgb(0, 0, 0); color: rgb(0, 0, 0); word-wrap: break-word; -webkit-nbsp-mode: space; line-break: after-white-space;" class="">
<div dir="auto" style="caret-color: rgb(0, 0, 0); color: rgb(0, 0, 0); font-family: Helvetica; font-size: 12px; font-style: normal; font-variant-caps: normal; font-weight: normal; letter-spacing: normal; orphans: auto; text-align: start; text-indent: 0px; text-transform: none; white-space: normal; widows: auto; word-spacing: 0px; -webkit-text-size-adjust: auto; -webkit-text-stroke-width: 0px; text-decoration: none; word-wrap: break-word; -webkit-nbsp-mode: space; line-break: after-white-space;" class="">
<div dir="auto" style="text-align: start; text-indent: 0px; word-wrap: break-word; -webkit-nbsp-mode: space; line-break: after-white-space;" class="">
<div dir="auto" style="text-align: start; text-indent: 0px; word-wrap: break-word; -webkit-nbsp-mode: space; line-break: after-white-space;" class="">
<div dir="auto" style="word-wrap: break-word; -webkit-nbsp-mode: space; line-break: after-white-space;" class="">
<div style="caret-color: rgb(0, 0, 0); color: rgb(0, 0, 0); font-family: Helvetica; font-size: 12px; font-style: normal; font-variant-caps: normal; letter-spacing: normal; text-transform: none; white-space: normal; word-spacing: 0px; text-decoration: none; -webkit-text-stroke-width: 0px; font-weight: normal; text-align: start; text-indent: 0px;">
<br class="">
</div>
</div>
</div>
</div>
</div>
</div>
</div>
</body>
</html>