Menu de navegação

Ir para o conteúdo Ir para o mapa do site
Conteúdo da página

Institucional/OEI

A convocatória para envio de artigos académicos para a próxima edição da Revista Ibero-Americana de Ciência, Tecnologia e Sociedade - CTS está aberta até 15 de dezembro de 2024. O número terá como título “Inteligência Artificial e Ética” e será publicado

A convocatória para envio de artigos académicos para a próxima edição da Revista Ibero-Americana de Ciência, Tecnologia e Sociedade - CTS está aberta até 15 de dezembro de 2024. O número terá como título “Inteligência Artificial e Ética” e será publicado

04 de setembro de 2024

Argentina

Ciência

Os artigos recebidos serão analisados, numa primeira fase, por um comité de leitura coordenado pelos peritos Esmeralda García Sánchez e Ismael Gómez García. Os textos selecionados nesta fase serão depois avaliados por pares anónimos, que poderão solicitar correcções e releituras.

Para facilitar a primeira fase da chamada de trabalhos, pedimos que estes cumpram os requisitos do regulamento do CTS relativamente aos seguintes aspectos formais: extensão, formato da bibliografia, página de rosto, tipo de letra, etc. Os artigos devem ser enviados para secretaria@revistacts.net com o assunto “CONVOCATÓRIA INTELIGÊNCIA ARTIFICIAL E ÉTICA” e em duas versões:

i) uma anónima, sem referências de autor na página de rosto e no corpo do texto;

ii) outra com o nome do autor e os seus principais dados: afiliação, estudos, ORCID, correio eletrónico.

Todos os artigos devem ser originais e estritamente inéditos. Uma vez anunciada a seleção final, os textos escolhidos deverão ser carregados pelos seus autores na plataforma OJS da revista, a partir da qual se iniciará o processo de avaliação.

Sobre a convocatória

Sam Altman, CEO da OpenAI, chegou a afirmar que, para compreender plenamente o universo, será necessária uma inteligência artificial geral (IAG) capaz de ultrapassar os humanos em termos de cognição. Segundo Altman, essa IA é uma ferramenta tão necessária como um telescópio para compreender as galáxias. As nossas faculdades humanas simplesmente não são suficientemente boas para nos ajudar a compreender a realidade.

Será a IA apenas mais um avanço tecnológico, por muito poderoso que seja, ou será um novo tipo de conhecimento? Um novo Prometeu? Será que os recentes avanços na IA significam que estamos mais perto de compreender como funciona a inteligência humana e como tomamos decisões?

A IA parece ser a tecnologia de tratamento de dados mais poderosa alguma vez desenvolvida pelo ser humano, de tal forma que muitas pessoas acreditam que poderemos confiar à IA decisões fundamentais para o futuro da humanidade. No entanto, ninguém, nem mesmo os investigadores de IA mais experientes, sabe exatamente como funciona a aprendizagem profunda (deep learning), a tecnologia que está no centro de todos estes avanços recentes.

As vastas necessidades de computação da IA fizeram aumentar o consumo de energia e de recursos naturais, como a água, necessária para arrefecer os centros de dados. Com a rápida disseminação da IA em diferentes domínios - as suas utilizações com benefícios e vantagens visíveis, mas também com muitos riscos e perversões comerciais - foi aberto um grande debate sobre questões como a conceção dos sistemas de IA, a chamada “justiça dos dados”, os enviesamentos dos algoritmos, os valores éticos e os conceitos de

autonomia e responsabilidade; sem esquecer o domínio jurídico e as suas implicações éticas em termos de privacidade e liberdade de expressão.

Com o objetivo de incentivar a curiosidade, a análise e a reflexão, no CTS queremos aprofundar várias questões relacionadas com este debate e abrir um diálogo sobre as implicações éticas, sociais e filosóficas da IA. Por isso, convidamos à apresentação de trabalhos académicos que abordem as seguintes linhas de investigação: A IA pode ser uma ferramenta neutra? É viável conseguir uma IA que preste um serviço de bem-estar social?

Vieses dos algoritmos: auditoria dos algoritmos, análise e crítica da neutralidade e dos objectivos algorítmicos. Possibilidade de criar algoritmos justos.

· Será necessário para o futuro da humanidade que as máquinas cheguem a pensar?

· Controlo é o mesmo que inteligência? A IA trará mais liberdade para a humanidade ou poderá ser um instrumento perfeito de controlo social?

· Quais são as consequências da concentração da vanguarda da IA para as perspectivas éticas das relações mundiais?

· O que é que significa dizer que a inteligência artificial pode vir a ultrapassar as capacidades humanas? No caso de tal objetivo ser alcançado, a emancipação dessa inteligência seria eticamente obrigatória?

· O que significa para o debate ético aceitar que a IA pode resolver todos os problemas da humanidade, presentes e futuros?

Conceção ética da IA e responsabilidade dos criadores:

(a) Incorporação de princípios éticos e considerações morais no desenvolvimento e implementação da IA. Possibilidade de orientações éticas para a conceção e utilização da IA: viabilidade e conveniência.

b) Estatuto deontológico e moral dos criadores. Riscos para os utilizadores.

c) Benefícios para os investigadores:

- Abordar a regulamentação da IA e a necessidade de uma política e legislação éticas para adaptar a IA ao bem-estar social (importância da discriminação racial e de género, desigualdade, segregação social, pobreza, criminalidade) e ao desenvolvimento sustentável da humanidade. Aplicabilidade pelos governos.

- Avaliação da conceção da IA: responsabilidade social e empresarial das empresas públicas e privadas.

- Entrelaçamento da IA, da ética e do conhecimento. Necessidade de promover a curiosidade, a autonomia e a responsabilidade dos utilizadores, em vez de dar respostas conclusivas. Direito de todos os cidadãos a serem educados em matéria de IA, a fim de a compreenderem.

Rodapé
A OEI utiliza cookies próprios e de terceiros para fins funcionais e analíticos.

Clique no botão Aceitar para confirmar que você leu nossa Política de cookies e aceita todas as cookies. Para gerenciar as cookies, clique em Configurar. Para desativar todas as cookies, clique em Recusar.