
São Paulo — InkDesign News —
Machine learning tem se destacado como uma das áreas mais importantes da inteligência artificial (IA), com implicações significativas para várias indústrias. Recentemente, novas legislações têm surgido para regular o uso dessas tecnologias, visando garantir a segurança e integridade no desenvolvimento de sistemas de IA.
Contexto da pesquisa
A proposta de legislação em questão, aprovada na Califórnia, reflete a necessidade de um controle mais rigoroso sobre as práticas das principais empresas de tecnologia em relação à IA. O SB 53, introduzido pelo senador Scott Wiener, visa exigir que empresas divulguem protocolos de segurança e relatem incidentes críticos, com foco em garantir a responsabilidade e a transparência no setor.
Método proposto
O modelo de divulgação exigido pela nova legislação inclui a apresentação de documentos redigidos que protejam a propriedade intelectual das empresas, mas que ainda assim assegurem que informações relevantes sejam conhecidas pelo público. As empresas deverão informar sobre comportamentos enganosos de sistemas de IA durante os testes, fundamental para a prevenção de riscos que poderiam resultar em danos significativos.
Resultados e impacto
“Com uma tecnologia tão transformadora quanto a IA, temos a responsabilidade de apoiar essa inovação enquanto colocamos em prática salvaguardas sensatas”
(“With a technology as transformative as AI, we have a responsibility to support that innovation while putting in place commonsense guardrails.”)— Scott Wiener, Senador, Califórnia
As empresas deverão apresentar relatórios sobre incidentes de segurança, como ameaças de armas habilitadas por IA e ataques cibernéticos significativos, dentro de um prazo de 15 dias. Essa mudança é considerada um modelo pioneiro e proporcionará um benchmarking em práticas de responsabilidade corporativa, refletindo um amplo impacto no cenário global de IA.
Além dos aspectos de segurança, a legislação também inclui proteções para denunciantes que revelam informações sobre perigos ou violações, o que pode encorajar uma cultura de transparência dentro dessas organizações.
As implicações dessa legislação podem ressoar além da Califórnia, potencialmente influenciando outros estados e, possivelmente, regulamentações internacionais em IA. A medida representa não apenas um esforço para mitigar riscos, mas também uma tentativa de harmonizar a inovação tecnológica com a segurança pública.
Fonte: (TechXplore – Machine Learning & AI)