Tornou-se bastante comum hoje em dia ouvir as pessoas referirem-se aos modernos sistemas de aprendizagem de máquinas como “caixas pretas”. Como exemplo, considere um episódio recente do podcast de Sam Harris no qual ele entrevistou o pioneiro da IA, Stuart Russell. Harris pergunta:
“Então, se eu não estou enganado, a maioria, se não todas estas abordagens de aprendizagem profunda, ou mesmo mais geralmente as abordagens de aprendizagem de máquinas são, essencialmente caixas pretas, nas quais você não pode realmente inspecionar como o algoritmo está realizando o que está realizando””
Embora esta metáfora seja apropriada para algumas situações particulares, ela é na verdade bastante enganadora em geral, e pode estar causando uma quantidade considerável de confusão. Como veremos, um sistema de aprendizado profundo não é uma caixa preta; mesmo o desenvolvimento de um sistema desse tipo não precisa ser uma caixa preta. O verdadeiro desafio, porém, é que ambas as coisas são complexas, e não necessariamente bem compreendidas. Aqui, eu quero tentar esclarecer algumas dessas idéias, e ao mesmo tempo pensar no que queremos dizer com explicações.
Como explicarei abaixo, eu acredito que a confusão surge pelo menos em parte dos conceitos errados que as pessoas têm sobre como esses sistemas funcionam. Quando as pessoas alcançam a metáfora da caixa preta, o que elas parecem estar expressando é o fato de que é difícil fazer sentido do propósito dos vários componentes de um modelo de aprendizagem de máquina. Embora isto seja realmente difícil, eu quero argumentar que também é uma expectativa irrealista. Pelo caminho, vou tentar explicar a diferença entre modelos e como eles são treinados, discutir cenários nos quais a metáfora da caixa preta é apropriada, e sugerir que, de muitas maneiras, os humanos são as verdadeiras caixas pretas, pelo menos no que diz respeito à aprendizagem de máquinas.
Explicações
Para começar, é útil refletir sobre o que as pessoas querem dizer quando falam de explicações. Esta não é de forma alguma uma pergunta trivial, mas parece haver pelo menos duas formas particularmente relevantes de pensar sobre isto.
Quando pedimos a alguém uma explicação do porquê de ter feito algo (“Por que você fez X?”), estamos operando com um certo conjunto de suposições de fundo. No caso de uma decisão que foi cuidadosamente tomada, estamos tipicamente assumindo que eles tinham alguma boa razão para agir como fizeram, e estamos basicamente pedindo o processo de raciocínio que eles usaram para tomar a decisão. Por exemplo, podemos esperar que eles pesaram os prós e os contras e escolheram um curso de ação baseado na expectativa de que isso levasse a algum resultado particular.
Quando perguntamos por que algo deu errado, ao contrário, estamos pedindo uma espécie de explicação post-hoc do fracasso. Por exemplo, depois de um acidente de carro, podemos querer uma explicação sobre o que causou o acidente. O condutor estava distraído? Será que outro carro os fez desviar? Ao invés de um processo de raciocínio, estamos pedindo, mais ou menos, o estímulo crítico que causou uma reação particular fora do comportamento normal.
Quando as pessoas pensam em inteligência artificial, elas normalmente parecem ter em mente o primeiro tipo de explicação. A expectativa é que o sistema fez uma deliberação e escolheu um curso de ação com base no resultado esperado. Embora existam casos em que isso é possível, cada vez mais estamos vendo um movimento em direção a sistemas que são mais parecidos com o segundo caso; ou seja, eles recebem estímulos e depois apenas reagem.
Existem muito boas razões para isso (não menos porque o mundo é complicado), mas isso significa que é mais difícil entender as razões pelas quais uma determinada decisão foi tomada, ou porque acabamos com um modelo em oposição a outro. Com isso em mente, vamos cavar o que queremos dizer com um modelo, e a metáfora da caixa preta.
Boxes and Models
A metáfora da caixa preta remonta aos primeiros tempos da cibernética e do comportamentalismo, e refere-se tipicamente a um sistema para o qual só podemos observar as entradas e saídas, mas não o funcionamento interno. Na verdade, esta foi a forma pela qual B. F. Skinner conceitualizou as mentes em geral. Embora ele tenha demonstrado com sucesso como certos comportamentos aprendidos poderiam ser explicados por um sinal de reforço que ligava certas entradas a certas saídas, ele então cometeu o famoso erro de pensar que esta teoria poderia facilmente explicar todo o comportamento humano, incluindo a linguagem.
Como um exemplo mais simples de uma caixa preta, considere uma experiência de Skinner: você recebe uma caixa com um conjunto de entradas (interruptores e botões) e um conjunto de saídas (luzes que estão acesas ou apagadas). Ao manipular as entradas, você é capaz de observar as saídas correspondentes, mas você não pode olhar para dentro para ver como a caixa funciona. No caso mais simples, como um interruptor de luz em uma sala, é fácil determinar com muita confiança que o interruptor controla o nível de luz. Para um sistema suficientemente complexo, contudo, pode ser efectivamente impossível determinar como funciona a caixa apenas tentando várias combinações.
Deixe uma resposta