O que o Projeto Baunilha do Cerrado nos ensina sobre a natureza das marcas

Em abril, a linha Ecossocial Kalunga foi lançada, tendo como principal porta voz o chef Alex Atala. É possível adquirir arroz de pilã, farinha de mandioca, gergelim kalunga e baunilha do cerrado no box que a Associação Instituto Atá mantém no Mercado de Pinheiros.

Mas existe uma disputa que acontece na origem desses produtos, o Sítio Histórico e Patrimônio Cultural Kalunga, e que prejudica os produtores dos alimentos que circulam sob o selo “Ecossocial Kalunga”.

Inicialmente cumpre esclarecer que os produtos comercializados pelo chef Atala no Mercado de Pinheiros são fruto de uma parceria entre a Associação Instituto Atá e a Associação Quilombo Kalunga. Desta parceria deveria florescer o ganho de conhecimento sobre os alimentos cultivados no cerrado e também a contrapartida financeira para as comunidades que fornecem esse conhecimento.

Tal parceria não gerou os frutos merecidos pela Associação Quilombo Kalunga, que inclusive foi surpreendida com a notícia do registro da marca “Baunilha do Cerrado” pela Associação Instituto Atá, feita como marca de serviço.

Neste ponto apresentamos as diferentes naturezas que uma marca pode ter: de serviço, de produto e coletiva. As marcas de serviço e de produto só podem ser utilizadas por seu titular e por terceiros devidamente licenciados. Já a marca coletiva tem seu uso autorizado para membros de uma pessoa jurídica que represente uma coletividade, podendo ser Associação, Cooperativa, Sindicato, entre outros exemplos.

Voltando à marca “Baunilha do Cerrado”: como a marca foi registrada como de serviço, apenas seu titular tem direito de utilizá-la. Segundo o portal De Olho nos Ruralistas, o Chef Atala disse que os Kalungas estão liberados para utilizar a marca, mas na prática, essa liberação não gera segurança aos Kalungas e nem retorno financeiro.

Esse impasse poderia ser resolvido de uma maneira que respeita os produtores e comerciantes da Baunilha do Cerrado: o depósito de marca coletiva. Como tem uma finalidade distinta das marcas de serviço e de produto, a marca coletiva indica que determinado produto ou serviço provém de membros de uma determinada entidade. Dessa maneira, os membros da entidade podem utilizar a marca sem necessidade de licença de uso.

Tal formato foi o imaginado pelos Quilombolas, que pretendiam explorar economicamente a produção agrícola da região sem a dependência de intermediários.

A Associação Instituto Atá ainda está em tempo de corrigir os pedidos ainda não deferidos, ou até mesmo depositar novos sob outra natureza, garantindo aos Quilombolas a segurança de utilizar uma marca que identifica algo que sempre foi deles.

Advogada Autora do Comentário: Vittória Cariatti Lazarini
Manchete: Alex Atala registra marcas da baunilha do Cerrado, alimento tradicional dos quilombolas
Fonte

“Se quiser saber mais sobre este tema, contate o autor ou o Dr. Cesar Peduti Filho.”
“If you want to learn more about this topic, contact the author or the managing partner, Dr. Cesar Peduti Filho.”

LGPD vai favorecer Inteligências Artificiais preconceituosas

A redação final da Lei Geral de Proteção de Dados e da lei que cria a Autoridade Nacional de Proteção de Dados retirou das pessoas uma das mais importantes ferramentas para a tutela individual contra a violação de garantias constitucionais de igualdade perante os diversos tipos de algoritmos com vieses discriminatórios, de tal sorte favorecendo cenários exponencialmente agravados pelos desdobramentos, avanços e ocultação sistemática (proposital ou por desenho) dos vieses discriminatórios nas ferramentas de inteligência artificial com aprendizado de máquina em redes neurais ou aprendizado profundo nas estruturas de tomada de decisão de segregação/segmentação de pessoas.

A inteligência artificial e seus potenciais usos já não habitam mais as páginas de Arthur C. Clarke e o imaginário juvenil, seus avanços e presença têm ganhado destaque por seus feitos e despertado preocupações por suas ações e perigos.

Uma destas preocupações, que inclusive foi um dos fatores que inicialmente promoveram este estudo, é a discussão presente em torno da tutela da propriedade intelectual aplicada à Inteligência Artificial (AI). A Organização Mundial de Propriedade Intelectual (WIPO) ainda está engatinhando no sentido de identificar os campos de atuação e as possibilidades de proteção por propriedade intelectual decorrentes do uso de AI. Ocorre que esta preocupação ainda está no campo da cogitação científica e sequer tornou-se relevante o suficiente para mover as delicadas engrenagens do equilíbrio do comércio internacional para que as disputas políticas por modelos regulatórios montem sua arena.

Não obstante a imaturidade das aplicações com uso de AI decorrentes de recente incremento na capacidade computacional em nuvem e a grande disponibilidade de dados, as mazelas, fragilidades e vulneração dos direitos civis é tema recorrente de estudo vez que a ciência de base das redes neurais[1] , desdobramentos do pecerptor de Rosenblatt[2], esteve livremente disponível à comunidade há dezenas de anos, apresentando inclusive,  no conceito de redes neurais, valores modulantes de peso.

Mantendo o complexo tão simples quanto possível, em uma rede neural os neurônios artificiais são treinados (com um grande conjunto de pares de dados base) para reconhecer e categorizar uma determinada informação dada. O treinamento com pares de dados permite à rede neural identificar por tentativa e erro os pesos de cada informação imputada para a determinação da categoria. Esta determinação do “peso” ou relevância de uma característica da informação inicial para a determinação do resultado verdadeiro é um valor obtido (mas não dado) a partir do conjunto de dados base, e fortemente influenciado pela abrangência e qualidade deles. Bancos de dados contaminados com vieses preconceituosos estruturais, conhecidos ou não, podem ter este tipo de preconceito aumentado se reconhecido pela rede neural como um fator com peso maior.

A discriminação latu sensu pode ser entendida como o atributo entre duas classes que provoca uma mudança de comportamento com relação à estas classes – ou seja o fator discriminatório – que eventualmente pode estar ancorado em gênero, origem, classe social, alinhamento político, crença religiosa, raízes culturais, entre outros tantos fatores que não podem servir de base para uma mudança de tratamento perante os direitos humanos e constitucionais brasileiros.

Nas redes neurais profundas, esse problema pode ser incrivelmente mais desafiador, considerando que nelas podem ser utilizadas centenas de camadas ocultas cada uma com milhões de neurônios artificiais. Estas redes neurais profundas são especialmente eficientes em problemas complexos como reconhecimento de fala e imagens, mas são uma verdadeira caixa-preta no quesito de identificar fatores discriminatórios e os pesos, é tecnicamente impossível enxergar a utilização de fatores discriminatórios de gênero e etnia olhando apenas para a rede neural profunda.

Como a injusta discriminação em redes neurais profundas tem sido enfrentada por pesquisadores e times de desenvolvimento em todo o mundo, alguns fatores contraintuitivos foram identificados.

Por exemplo, mecanismos de tomada de decisão de entrega de publicidade online operaram com viés de gênero para mulheres, mesmo quando a ferramenta era programada para não fazer diferença por sexo; e, até mesmo quando a ferramenta não possuía a informação de gênero ela fazia esta discriminação[3].   

A questão de reforço discriminatório da AI também tem sido estudada do ponto de vista dos dados utilizados no treinamento tendo sido identificado que conjuntos maiores de dados não conduzem a melhores resultados e muitas vezes aprofundam os vieses discriminatórios.

Exemplos que beiram o absurdo são cotidianamente levantados por especialistas e na imprensa aberta, como por exemplo no caso abaixo em que um escore de risco de reincidência criminal divulgado pela ProPublica[4] – que chocaria até Cesare Lombroso – não explicita porque a mulher negra possui um alto índice enquanto um assaltante armado e reincidente tem baixo risco.

inteligencias artificiaisOs algoritmos de reconhecimento de face, por exemplo, parecem ter uma dificuldade muito maior com faces de mulheres negras, como trazido por Joy Buolamwini em um artigo na revista Time[5] no qual algoritmos de dois gigantes mundiais são incapazes de reconhecer as duas mulheres negras mais importantes dos EUA:

inteligencias artificiaisinteligenciais artificiaisEste pode parecer ser um problema restrito às sociedades ocidentais desenvolvidas, porém mesmo o Brasil também deverá sofrer nos próximos anos dos efeitos das decisões injustamente tomadas por AIs. Fruto principalmente das atuais políticas públicas de uso e proteção de bancos de dados, dispositivos legais que atendem um forte interesse de uma parcela do mercado fragilizaram ainda mais a posição do cidadão brasileiro com relação às suas informações de utilidade financeira e creditícia, a Lei do Cadastro Positivo e A Lei Geral de Proteção de Dados.

A Lei Complementar 166/2019, altera as regras do Cadastro Positivo com o discurso de “permitir que cada brasileiro tenha uma nota de crédito (escore), definida de acordo com o pagamento de suas contas, como empréstimos bancários, cartão de crédito e de serviços públicos de fornecimento de água, luz e telefone. Terá escore mais alto o bom pagador, que arca com seus compromissos em dia. Essa reputação será considerada pelas instituições financeiras na hora de conceder crédito ao consumidor.[6]”  

Mesmo que se pudesse ver com bons olhos a criação de um banco de dados com as informações creditícias de todos os cidadãos brasileiros, a submissão à um algoritmo de escore já implica que todas as pessoas físicas ao tomar crédito estarão sujeitas aos vieses de preconceito reforçado de que já tratamos.

A diferença no caso nacional é a de que o cidadão atingido por estes injustos fatores discriminatórios não terá condições fundamentais de autodefesa, nesse caso a revisão humana. 

Os exemplos trazidos à ágora por pesquisadores e especialistas, em sua maioria, poderiam ser sensivelmente reduzidos caso sofressem revisão humana por pessoa qualificada.   

O problema é que a Lei 13.853 de 2019 ao alterar a redação do art. 20 da Lei 13.709 de 2018 (Lei Geral de Proteção de Dados), excluiu a necessidade de pessoa natural na revisão de decisões tomadas unicamente com base em tratamento automatizado de dados pessoais incluindo os de crédito.

Na prática, o cidadão ao requerer a revisão de seu escore de crédito será automaticamente submetido ao mesmo algoritmo sujeito a falhas, recebendo o mesmo resultado e criando o impedimento de que se levantem casos onde o crédito é negado ao cidadão porque seu patronímico é comum entre os vulgares, ou reside em área sujeita à favelização ou simplesmente por sua origem étnica. A resposta sempre será:

Dave, this conversation can serve no purpose anymore. Goodbye.

[1] Rosenblatt, F. (1962) Principles of Neurodynamics Perceptrons and the Theory of Brain Mechanisms. Spartan Books, Washington DC.

[2] Marvin Minsky and Seymour Papert,  Perceptrons. An Introduction to Computational Geometry. M.I.T. Press, Cambridge, Mass., 1969.

[3] Amit Datta, Michael Carl Tschantz, and Anupam Datta, Automated Experiments on Ad Privacy Settings, Proceedings on Privacy Enhancing Technologies 2015; 2015 (1):92–112.

[4] https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing?source=post_page

[5] https://time.com/5520558/artificial-intelli https://time.com/5520558/artificial-intelligence-racial-gender-bias/ gence-racial-gender-bias/ 

[6] https://www.bcb.gov.br/detalhenoticia/336/noticia

 

Advogado Autor do Comentário: Luiz Henrique Rodrigues de Souza

“Se quiser saber mais sobre este tema, contate o autor ou o Dr. Cesar Peduti Filho.”
“If you want to learn more about this topic, contact the author or the managing partner, Dr. Cesar Peduti Filho.”