Skip to content
Pesquise para saber mais sobre produtos e soluções da InterSystems, oportunidades de carreira e muito mais.

Confiança e responsabilidade com a IA

Princípios da InterSystems para a Inteligência Artificial nos nossos produtos

A inteligência artificial tem um potencial transformador para gerar valor e conhecimentos a partir dos dados, o elemento central da nossa atividade. O nosso compromisso de manter os mais elevados padrões de privacidade, segurança e responsabilidade orientará uma abordagem ponderada e justa da IA que crie confiança, acelerando simultaneamente a inovação, garantindo o sucesso do cliente e demonstrando um compromisso com a excelência. A InterSystems desenvolveu um conjunto de princípios para orientar a incorporação da inteligência artificial nos nossos produtos, de modo a impulsionar a inovação com sistemas de IA e a esclarecer o seu objetivo como conselheiro, assistente e facilitador.

Princípios éticos da IA da InterSystems

Para apoiar o nosso compromisso para com a utilização ética da inteligência artificial, estabelecemos um conjunto de princípios éticos da IA que enfatizam a transparência, a responsabilidade e a explicabilidade. Estes princípios são essenciais para o cumprimento das nossas responsabilidades sociais e éticas, ao mesmo tempo que cumprimos as leis relevantes.

Para garantir a aplicação prática destes princípios, promoveremos ativamente a sensibilização dos funcionários para a ética da IA através de programas de formação abrangentes. Implementamos um processo de avaliação para projetos e produtos de IA concebido para evitar preconceitos e discriminações prejudiciais, proteger a privacidade e a propriedade dos dados e garantir a segurança, a responsabilidade e a proteção, submetendo todos os produtos e projetos de IA a uma avaliação e governança rigorosas.

O nosso compromisso para com estes princípios incluirá também a colaboração com profissionais, grupos e consórcios externos do sector dos cuidados de saúde e da tecnologia, a fim de garantir uma abordagem abrangente para promover a confiança e a responsabilidade com a inteligência artificial.

O nosso compromisso

1. Nos concentramos em aumentar o potencial humano, e não em substituí-lo, utilizando a IA como uma ferramenta
  • Reconhecemos a IA como um facilitador do potencial humano e da produtividade através do reforço da criatividade humana e dos processos de tomada de decisão.
  • Damos prioridade à educação, formação e implantação de tecnologias de IA, enquanto protegemos simultaneamente o potencial da automação para prejudicar ou substituir trabalhadores humanos.
  • A automação facilitada pela IA deve complementar e apoiar os trabalhadores humanos. Estamos empenhados em proteger quaisquer potenciais impactos negativos no emprego e na dinâmica da força de trabalho.
2. Acreditamos que a transparência, a responsabilidade e a explicabilidade são fundamentais para estabelecer a confiança e impulsionar a inovação dos sistemas de IA
  • Defendemos a transparência, a responsabilidade e a explicabilidade como elementos fundamentais para estabelecer a confiança e promover a inovação nos sistemas de IA.
  • Para criar confiança na inteligência artificial e, ao mesmo tempo, incentivar a colaboração e a experimentação, estamos empenhados na transparência em torno da integração da IA em produtos e projetos, a fim de contribuir para o desenvolvimento de soluções de IA mais inovadoras e eticamente sólidas.
  • A defesa da transparência, da responsabilidade e da explicabilidade é essencial para salvaguardar a segurança e o bem-estar dos doentes nos produtos de cuidados de saúde baseados em IA. A transparência em torno dos conteúdos criados por IA e dos dados de origem, incluindo os casos em que são feitas modificações aos conteúdos gerados por IA, incutirá confiança e garantirá clareza quanto à utilização da IA nos contextos de cuidados de saúde.
3. Evitamos preconceitos e discriminações prejudiciais
  • Evitamos preconceitos e discriminação prejudiciais, assegurando que os projetos e produtos que utilizam inteligência artificial utilizam dados de diversas fontes e procuram ativamente atenuar a sub-representação ou marginalização de determinados grupos.
  • Os sistemas de IA devem dar prioridade à justiça e à equidade nos seus resultados, garantindo que as decisões não prejudiquem ou desfavoreçam desproporcionadamente indivíduos ou grupos específicos.
  • Estamos empenhados em garantir que os sistemas incorporam mecanismos sólidos para identificar, analisar e atenuar os enviesamentos presentes nos conjuntos de dados, nos algoritmos e nos processos de tomada de decisões.
4. Protegemos a privacidade e a propriedade dos dados
  • Continuaremos a dar prioridade à proteção da privacidade e dos direitos de propriedade relativos aos dados e aos dados utilizados nos sistemas de inteligência artificial. O nosso programa Global Trust serve como uma estrutura robusta para fortalecer as medidas de segurança e privacidade dos dados, promovendo a confiança nas relações com os nossos clientes.
  • A InterSystems está totalmente empenhada em garantir a conformidade com as regulamentações, normas e leis aplicáveis relativas à inteligência artificial.
  • Este compromisso sublinha a nossa dedicação à defesa das normas de proteção de dados e privacidade em todas as facetas do desenvolvimento e implementação da IA, garantindo que os produtos e projetos sejam regularmente avaliados em conformidade com os quadros regulamentares e legais em evolução.
5. Somos responsáveis pela segurança e proteção, submetendo todos os produtos e projetos de IA a uma avaliação e governança rigorosas
  • Validaremos os algoritmos e as tecnologias de IA através de testes e avaliações rigorosas para garantir a sua eficácia e confiabilidade em contextos clínicos e outros.
  • Asseguramos a segurança e o bem-estar dos pacientes através da validade clínica e da eficácia dos produtos de saúde.
  • Todas as soluções com capacidades de IA devem cumprir os regulamentos associados ao seu âmbito, caso de utilização e limitações, especialmente se forem utilizadas para fins de diagnóstico sujeitos a regulamentos relativos a dispositivos médicos.
  • Daremos prioridade a abordagens baseadas em provas e à colaboração com profissionais de saúde para validar intervenções baseadas em IA.