O supercomputador SDumont, quarto maior da América Latina segundo a lista TOP500, com 5.1 petaflops, hospedado no LNCC/MCTIC na cidade de Petrópolis-RJ, atende atualmente mais de 1000 usuários de 133 projetos de pesquisa em 28 áreas de conhecimento, coordenados por instituições de ensino e pesquisa distribuídas em 12 estados brasileiros. Nesta palestra serão apresentadas brevemente as características do supercomputador e as áreas e projetos de pesquisa atualmente em desenvolvimento no mesmo. Em seguida serão analisadas, através do ponto de vista de área de pesquisa de Arquitetura de Computadores, as pesquisas em desenvolvimento para aplicações que necessitam de supercomputadores de potência computacional exaflopica e as novas aplicações na área de Inteligência Artificial.
Carla Osthoff possui graduação em Engenharia Elétrica pela Pontifícia Universidade Católica do Rio de Janeiro, mestrado e doutorado em Engenharia de Sistemas e Computação pela Universidade Federal do Rio de Janeiro. Atua na área de processamento de alto desempenho desde 1985 inicialmente em projetos de desenvolvimento de hardware de multiprocessadores paralelos distribuídos e depois como pesquisadora em Arquitetura de Computadores. Atualmente, é pesquisadora na área de Computação de Alto Desempenho do Laboratório Nacional de Computação Científica (LNCC), professora do Programa Multidisciplinar de Pós-Graduação do LNCC, coordena o Centro Nacional de Processamento de Alto Desempenho (CENAPAD) e é membro do corpo Técnico-Científico do Comité Consultivo do Supercomputador Santos Dumont. Coordena o Setor de Processamento de Alto Desempenho do LNCC, que possui diversos projectos de colaboração na área de Computação de Alto Desempenho. Com mais de 80 trabalhos publicados entre periódicos e anais de congressos nos tópicos : computação de alto desempenho, sistemas distribuídos, processamento paralelo, modelos de programação e computação científica.
With the recent expansion in data generation and the growing importance of exploring the knowledge contained in these data, Data Science is one of the fastest growing area of Exact Sciences. Large companies, like Amazon, Apple, Disney, Facebook, Google and Microsoft are hiring a large number of scientists, engineers and statisticians to work in this area. The ability to acquire, store and transmit data from the most diverse human activities, in the public and private sectors, has grown exponentially. This is generating massive volumes of data. These massive volumes of data, known as Big Data, come from a variety of sources and therefore have a wide variety of structures, ranging from traditional attribute-value tables to videos and messages on social networks. Analyzing these massive volumes of data can generate valuable information for decision making, enabling the extraction of new and useful knowledge. The difficulty of this analysis by traditional data analysis techniques has led to the development of new techniques, expanding the area of Data Science. This talk will present the main aspects, challenges and applications of Big Data and Data Science.
André C. P. L. F. de Carvalho is Full Professor at the Institute of Mathematical and Computer Sciences, University of São Paulo (ICMC-USP). He holds a BSc (1987) and a MSc in Computer Science (1990) from the Federal University of Pernambuco, and a PhD in Electronic Engineering from the University of Kent (1994). His main research interests are Artificial Intelligence, Machine Learning, Data Mining and Data Science, with applications in various areas, such as health sciences. He is a member of the Strategy and Partnerships Board of the UKRI Centre for Doctoral Training in Accountable, Responsible and Transparent AI (ART-AI), at University of Bath, UK and the Latin America Steering Committee of the International Network for Government Science Advice (INGSA), and Vice-President of the Brazilian Computer Society. Prof. André de Carvalho has more than 300 publications in data science, machine learning and data mining, including 10 best papers awards from conferences organized by ACM, IEEE and SBC. Prof. André de Carvalho supervised/co-supervised more than 25 PhD students in different Universities in Brazil and Portugal and more than 15 Postdocs. He has been in the Editorial Board and Program Committee of some of the main conferences and Journals in Artificial Intelligence, Data Science, Data Mining, Machine Learning, like AAAI, KDD, ECML/PKDD, IJCAI and SDM. He is a member of the International Association for Statistical Computing (IASC) Council and Director of the Center of Machine Learning in Data Analysis, University of São Paulo.
Nesta palestra vamos apresentar a computação escalável intensiva em dados (DISC), uma abordagem centrada em dados que contém uma ampla diversidade de aplicativos, geralmente empregados nos ambientes web e de negócios. O DISC tem uma forte orientação para o gerenciamento e análise de dados, com objetivos que incluem escalabilidade, tolerância a falhas, disponibilidade e custo-desempenho. O paradigma considera modelos de programação utilizando operadores de alto nível, bem como linguagens Java / Python / Scala, em clusters compartilhados de hardware comum. Como especialista em HPC, que utiliza essa abordagem no setor industrial, vamos compartilhar, também, algumas experiências de grande interesse.
Mario A. R. Dantas é Professor Titular no Departamento de Ciência da Computação (DCC) do Instituto de Ciências Exatas (ICE) da Universidade Federal de Juiz de Fora (UFJF) e dos Programas de Pós-Graduação em Ciência da Computação (PPGCC), no Centro de Ciências Exatas e Centro de Tecnologia (CTC), das Universidades Federal de Juiz de Fora e Santa Catarina (UFSC). Com doutorado em Ciência da Computação pela Universidade de Southampton (Reino Unido), foi professor visitante da Universidade de Western Ontario (Canadá) e pesquisador visitante em Riken (Japão). Professor Dantas é autor de mais de duzentos artigos científicos(no Brasil e exterior), dezenas de capítulos em livros internacionais e três livros. Orientou inúmeros trabalhos de pesquisa de graduação, especialização, mestrado e doutorado,. As publicações e orientações lhe renderam vários prêmios nacionais e internacionais. Tem atuado como consultor em vários projetos nos setores privado e público nas áreas de IoT, e-Health. sistemas distribuídos e ambientes de alto desempenho.
Knowledge representation and machine learning are two core topics in the development of artificial intelligences. There are now solid tools for knowledge representation, and there is now also a deluge of data and a flood of successful machine learning techniques. How can all these tools work together? We illustrate some of the issues in knowledge-enhanced machine learning by investigating modeling languages that mix statistical and logical reasoning.
Fabio G. Cozman is Full Professor at Escola Politécnica, Universidade de São Paulo (USP), Director of the Center for Artificial Intelligence at USP, and researcher (level 1C-CNPq/Pq) with an interest in machine learning and knowledge/uncertainty representation. Engineer (USP) and PhD (Carnegie Mellon University, USA), he has served, amongst other duties, as Program and General Chair of the Conference on Uncertainty in Artificial Intelligence, Area Chair of the International Joint Conference on Artificial Intelligence, and Associate Editor of the Artificial Intelligence Journal, the Journal of Artificial Intelligence Research, and the Journal of Approximate Reasoning. He chaired the Special Committee on Artificial Intelligence of the Brazilian Computer Society, and received the Prize for Scientific Merit in Artificial Intelligence by that society.