Objetivo dessas diretrizes
As diretrizes da Nasscom buscam tentar mitigar os danos da IA generativa. O maior deles inclui, de acordo com o relatório, desinformação, violação de IP, violação de privacidade de dados, propagação de preconceitos, interrupção em larga escala da vida e dos meios de subsistência, degradação ambiental e ataques cibernéticos maliciosos. Em comunicado, a Nasscom disse que, no futuro, o foco será promover a conscientização sobre a adoção dessas diretrizes, desenvolver orientações específicas para diferentes casos de uso e aprimorar o kit de recursos de IA responsável existente. presidente da Nasscom Debjani Ghosh disse que a estrutura “é tremendamente exclusiva da Índia e é um passo proativo para a construção de um roteiro transparente e robusto para a construção e uso responsável da IA”.
Uso cauteloso e avaliação de risco do dano potencial
Para o desenvolvimento de soluções de IA generativas, as diretrizes recomendam o uso cauteloso e a avaliação de risco dos possíveis danos causados pela implantação de tais soluções – ao longo de seu ciclo de vida. As diretrizes também exigem a divulgação pública de fontes de dados e algoritmos, a menos que os desenvolvedores possam provar que a divulgação de tais informações pode prejudicar a segurança pública.
Mecanismos de reparação de reclamações em vigor
As diretrizes também aconselham a explicabilidade dos resultados gerados por esses algoritmos de IA generativos, bem como mecanismos de reparação de reclamações para lidar com contratempos durante o desenvolvimento ou uso de tais soluções.
“As diretrizes ajudariam o ecossistema a liberar o verdadeiro potencial da IA, criando um futuro que combina harmoniosamente a engenhosidade humana com o avanço tecnológico”, disse o presidente da Nasscom e Microsoft Índia Presidente Anant Maheshwari.
fim do artigo