Este tutorial introduz uma metodologia reprodutível para realização de experimentos na área de processamento paralelo de alto desempenho. O objetivo é motivar a adoção de boas práticas experimentais que possibilitem a coleta de medidas mais representativas e que por consequência levem a resultados mais confiáveis. A metodologia apresentada é organizada em duas fases: execução de experimentos e análise dos dados. São sugeridas técnicas e ferramentas apropriadas para cada uma das etapas que compõem estas duas fases.
Vinícius Garcia Pinto possui graduação em Ciência da Computação pela Universidade Federal de Santa Maria (2010), mestrado em Computação pelo Universidade Federal do Rio Grande do Sul (2013) e doutorado em Computação pela Universidade Federal do Rio Grande do Sul em cotutela com a Université Grenoble Alpes / França (2018). Foi professor da Faculdade São Francisco de Assis e da Universidade de Caxias do Sul e atualmente é professor substitute e pós-doutorando no Departamento de Informática Aplicada da Universidade Federal do Rio Grande do Sul. Tem experiência em Programação Paralela e Computação de Alto Desempenho.
Lucas Leandro Nesi possui graduação em Ciência da Computação pela Universidade do Estado de Santa Catarina (2017) e mestrado pela Universidade Federal do Rio Grande do Sul (2019) e atualmente persegue um doutorado em Computação pela Universidade Federal do Rio Grande do Sul com bolsa da Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES). Realiza pesquisas na área de processamento de alto desempenho, especialmente em problemas que envolvem sistemas com múltiplos nós computacionais equipados com múltiplas GPUs e CPUs.
Lucas Mello Schnorr possui graduação em Ciência da Computação pela Universidade Federal de Santa Maria (2003), mestrado em Computação pela Universidade Federal do Rio Grande do Sul (2005), doutorado em Computação pela Universidade Federal do Rio Grande do Sul (2009), pós-doutorado pela Centre National de la Recherche Scientifique (2011) e pós-doutorado pela Institut National de Recherche en Informatique et en Automatique(2017). Atualmente é Professor Adjunto da Universidade Federal do Rio Grande do Sul e orientador do Programa de Pós-Graduação em Computação (nível máximo na avaliação da CAPES). Conduz pesquisas em ambiente internacional. Tem experiência na área de Ciência da Computação, com ênfase em Sistemas de Computação e Processamento de Alto Desempenho.
A área conhecida como Visão Computacional nasceu em meados dos anos 60, quase 10 anos após o nascimento da área de Inteligência Artificial, quando as primeiras tentativas de juntar uma câmera a um computador começaram a surgir. Junto com a área de Computação Gráfica e com a área de Processamento Digital de Imagens (PDI), a Visão Computacional tornou-se uma área madura e resultados importantes foram alcançados. No entanto, nos últimos anos a área atingiu um novo patamar graças aos avanços na área de Aprendizado de Máquina, mais especificamente, na área de Redes Neurais profundas, que tem “varrido” a área de PDI do mundo. Nesta conversa, vou apresentar os principais avanços da área após a AlexNet e apresentar alguns desafios atuais.
Roberto Hirata Jr. é formado em Física e em Matemática, fez mestrado e doutorado na área de Visão Computacional e Aprendizado de Máquina sob a orientação do prof. Dr. Junior Barrera. Atualmente é professor associado do departamento de Ciência da Computação do Instituto de Matemática e Estatística da Universidade de São Paulo.
A combinação de alto desempenho no processamento de Big Data com análises de dados suportadas por Machine Learning representa uma solução tecnológica de alto valor agregado para as organizações baseadas em dados. O objetivo desse tutorial composto por duas partes é capacitar os participantes em um primeiro contato no uso da plataforma open source HPCC Systems (www.hpccsystems.com) para processamento paralelo e análise de Big Data. A primeira parte desse tutorial foca as funcionalidades da plataforma para ingestão, transformação e carregamento de quantidades massivas de dados como etapa inicial de um pipeline de Machine Learning.
Hugo Watanuki é engenheiro de suporte na LexisNexis Risk Solutions e doutorando em Engenharia de Produção na Escola Politécnica da USP. Possui experiência com sistemas HPC para engenharia avançada e análise multivariada de dados.
Artur Baruchi é consultor na LexisNexis Risk Solutions e doutor em Engenharia da Computação pela Escola Politécnica da USP. Possui experiência em administração de sistemas de alta disponibilidade e programação.
Neste tutorial são apresentadas as ferramentas e técnicas fundamentais para acelerar aplicações em C/C++ para serem executados em GPUs massivamente paralelas com CUDA®. Você aprenderá a escrever código, configurar a paralelização de código com CUDA, e otimizar movimentação de dados no acelerador de GPU. No final do tutorial, você terá acesso a recursos adicionais para criar novas aplicações aceleradas por GPU por conta própria.
Wellington Martins é bolsista de produtividade em pesquisa do CNPq, Nível 2, e professor no Instituto de Informática da Universidade Federal de Goiás. Seu Doutorado foi em Ciência da Computação na Universidade de East Anglia (Inglaterra), mestrado em Sistemas de Computação na PUC-RJ, e graduação em Engenharia Elétrica na UFG.
Este tutorial apresentará os fundamentos matemáticos e os principais algoritmos usados em aprendizado por reforço, incluindo uma breve introdução ao aprendizado por reforço profundo.
Reinaldo A. C. Bianchi possui Bacharelado em Física pelo Instituto de Física da Universidade de São Paulo (1994), Mestrado e Doutorado em Engenharia Elétrica pela Escola Politécnica da Universidade de São Paulo (1998, 2004). Realizou um estágio de Pós-Doutorado no Instituto de Investigation en Intelligencia Artificial, IIIA-CSIC, Barcelona, Catalunya, Espanha. Atualmente é Professor Titular do Centro Universitário da FEI, em São Bernardo do Campo. Tendo como objetivo principal de seu trabalho de pesquisa a criação de Sistemas Robóticos Autônomos e Inteligentes, atua principalmente nas seguintes áreas: Robótica, Inteligência Artificial, Aprendizado de Máquina, Visão Computacional, Sistemas Multi-Agentes e também no Ensino e Divulgação da Engenharia.
A combinação de alto desempenho no processamento de Big Data com análises de dados suportadas por Machine Learning representa uma solução tecnológica de alto valor agregado para as organizações baseadas em dados. O objetivo deste tutorial composto por duas partes é capacitar os participantes em um primeiro contato no uso da plataforma open source HPCC Systems (www.hpccsystems.com) para processamento paralelo e análise de Big Data. A segunda parte deste tutorial aborda as funcionalidades da plataforma para segregação de dados e treinamento, uso e avaliação de modelos de Machine Learning.
Hugo Watanuki é engenheiro de suporte na LexisNexis Risk Solutions e doutorando em Engenharia de Produção na Escola Politécnica da USP. Possui experiência com sistemas HPC para engenharia avançada e análise multivariada de dados.
Artur Baruchi é consultor na LexisNexis Risk Solutions e doutor em Engenharia da Computação pela Escola Politécnica da USP. Possui experiência em administração de sistemas de alta disponibilidade e programação.