MEC-SETEC INSTITUTO FEDERAL DE EDUCAÇÃO, CIÊNCIA E TECNOLOGIA DE MINAS GERAIS - CAMPUS BAMBUÍ Bacharelado em Administração

JOSÉ WILLER DO PRADO

ANÁLISE FINANCEIRA: uma contribuição ao estudo da solvência empresarial utilizando redes neurais artificiais

BAMBUÍ - MG 2012

JOSÉ WILLER DO PRADO

ANÁLISE FINANCEIRA: uma contribuição ao estudo da solvência empresarial utilizando redes neurais artificiais

Trabalho de Conclusão de Curso apresentado ao Instituto Federal de Educação, Ciência e Tecnologia de Minas Gerais – Campus Bambuí como requisito parcial para obtenção do título de Bacharel em Administração. Orientador: Prof. Dr. Júlio César Benfenatti Ferreira Coorientadora: Profª. Msc. Adriana Giarola Vilamaior

BAMBUÍ - MG 2012

JOSÉ WILLER DO PRADO

ANÁLISE FINANCEIRA: uma contribuição ao estudo da solvência empresarial utilizando redes neurais artificiais

Trabalho de Conclusão de Curso apresentado ao Departamento do Curso Superior de Bacharelado em Administração do Instituto Federal de Educação, Ciência e Tecnologia de Minas Gerais – Campus Bambuí.

Aprovado em 07 de janeiro de 2013.

________________________________________________________________ Prof. Dr. Júlio César Benfenatti Ferreira (Orientador - IFMG – Campus Bambuí)

___________________________________________________ Prof. Msc. Érik Campos Dominik (IFMG – Campus Bambuí)

_______________________________________________ Profª. Esp. Laís Teixeira Silva (IFMG – Campus Bambuí)

À Mírian Rosa La Perfection de la Nature.

AGRADECIMENTOS Este é um conjunto representado em um gráfico de muita dedicação e amizade, com várias parábolas de sentimentos que tendem a um infinito positivo e que não podem ser explicados por uma simples regressão linear, mas sim, por complexas estruturas que apresentam múltiplos caminhos e destinos! Este conjunto não segue uma ordem específica, entretanto é composto por uma amostragem de merecimento, cujos principais elementos representativos deste universo de dívida e gratidão são: À competência técnica da Professora Fabíola Adriane Cardoso Santos, e por me introduzir neste fantástico mundo dos modelos matemáticos! Ao grande Professor Júlio César Benfenatti Ferreira, por nos introduzir no universo extraordinário da administração. Que desde a primeira aula inaugural, fez com que apaixonássemos por esta ciência tão holística e facetada que é a Administração! À amizade, dedicação e maestria acadêmica do Professor Érik Campos Dominik, e por me acompanhar durante toda a graduação, sempre tão disposto a nos ajudar, mesmo nas ocasiões mais incertas! À sinceridade, compromisso e orientação da Professora Adriana Giarola Vilamaior, com quem tomei o gosto pelas Demonstrações Financeiras e pela análise de Balanços, sempre nos orientando quanto aos demonstrativos da vida! Enfim, a todos os professores que contribuíram de alguma forma pra que fôssemos profissionais melhores (a busca pela excelência). Aos colegas e amigos da graduação, pelo convívio que tive o privilégio de desfrutar, e tanto aprender durante esses quatro anos! Aos meus amigos de infância, Élton Candido, Tiago Alexandre da Silva, Humberto Gomes Martins, Érico Silva, Bruna Silveira, Haroldo Dornelas e Pamilla Vilas Boas, por depositarem sempre em minha pessoa tanta confiança! À compreensão e contribuições de toda a família, pela fortaleza que se ergue! Agradeço!

"Todo homem, conhecimento".

por

natureza,

deseja

o

Aristóteles (384-322 a.C.)

RESUMO

PRADO, José Willer do. ANÁLISE FINANCEIRA: uma contribuição ao estudo da solvência empresarial utilizando redes neurais artificiais. Bambuí: IFMG - Campus Bambuí, 2012. 110 p.

Desde o principio da civilização, o crédito vem desempenhando papel importante nas relações humanas. Atualmente, os mercados mundiais tornaram-se cada vez mais competitivos, e pode-se dizer que toda a sociedade moderna é fundamentada em um sistema de crédito. Nesse sentido, observa-se que o estudo de ferramentas que auxiliam o fornecimento do crédito possui grande importância, tanto de ordem econômica quanto de ordem social. O presente estudo tem por objetivo gerar um modelo que pode ser capaz de prever a insolvência de empresas, através da aplicação das Redes Neurais Artificiais. Esse modelo visa resolver o problema de pesquisa, que se trata da incerteza presente na concessão de crédito, oferecido pelas instituições credoras. O presente estudo se deu por meio de uma pesquisa exploratória de caráter quantitativo (modelagem matemática computacional), aplicada à área financeira. Utiliza-se a pesquisa bibliográfica para embasar os estudos sobre insolvência empresarial, análise financeira, modelo tradicional, modelo dinâmico, características do crédito, histórico dos principais modelos de análise e Redes Neurais Artificiais. A rede neural artificial utilizada é uma rede do tipo perceptron de múltiplas camadas (MLP – Multi Layer Perceptron). A modelagem será realizada no software SPSS 20.0 (Statistical Package for Social Science). Com os resultados gerados, obtiveram-se dois modelos: um contendo apenas as variáveis do modelo tradicional e outro contendo as variáveis do modelo tradicional e do modelo dinâmico de análise financeira. A comparação entre estes dois modelos de análise de crédito possibilitou verificar a contribuição das variáveis do modelo dinâmico para o modelo final. Em virtude dos vários aspectos observados, pode-se concluir que as redes neurais artificiais são capazes de discriminar empresas solventes de empresas insolventes. Os índices que mais contribuíram para o modelo final de análise foram o 𝑋5, que é um índice de rentabilidade que aqui pode ser especificado como sendo um demonstrativo de rentabilidade bruta, este obteve 100% de importância; a variável 𝑋2 , que obteve importância de 98,9% na construção do modelo, sendo este um índice de estrutura de capitais, que representa qual a liquidez imediata da empresa e 𝑋8 , que é um índice criado a partir do modelo dinâmico de análise, que encontrou 91% de importância na classificação. Palavras-chave: Redes neurais; análise de balanços; risco de crédito; insolvência; modelos de previsão; modelagem matemática.

ABSTRACT

PRADO, José Willer do. FINANCIAL ANALYSIS: A contribution to the study of corporate solvency using artificial neural networks. Bambuí: IFMG - Campus Bambuí, 2012. 110 p.

Since the beginning of civilization, the credit has played an important role in human relations. Currently, global markets have become increasingly competitive, and we can say that every modern society is based on a credit system. In this sense, it is observed that the study of tools to help the supply of credit has great significance, both from an economic as social order. The present study aims to generate a model that may be able to predict the insolvency of companies, through the application of Artificial Neural Networks. This model aims to solve the research problem, it is the uncertainty present in lending, offered by institutions creditor. This study was done by an exploratory research of quantitative modeling (computational mathematics), applied to the financial field. We use the literature to support studies on corporate insolvency, financial analysis, traditional model, dynamic model, characteristics of the credit history of the main analysis models and Artificial Neural Networks. The neural net is a network of multilayer perceptron (MLP - Multi Layer Perceptron). The modeling is performed with SPSS 20.0 (Statistical Package for Social Science). With the results generated yielded two models, one containing only variables from the traditional model and other variables containing the traditional model and the dynamic model of financial analysis. The comparison between these two models of credit analysis enabled us to verify the contribution of the variables of the dynamic model for the final model. Given the various features observed can be concluded that artificial neural networks are capable of discriminating solvent companies of insolvent companies. Indexes that most contributed to the final model of analysis were the 𝑋5, which is a profitability index that here can be specified as a statement of gross profitability, this yielded 100% important, the variable 𝑋2 , who won importance of 98,9% in the construction of the model which is an index of capital structure, which represents the company's immediate liquidity and 𝑋8 , which is an index created from the dynamic model analysis found that 91% of importance in classification. Keywords: Neural networks; balance sheet analysis; credit risk; insolvency; forecasting models; mathematical modeling.

LISTA DE FIGURAS

FIGURA 1 Necessidade de Integração do Modelo Tradicional e do Modelo Dinâmico......20 FIGURA 2 Representação gráfica do Efeito Tesoura...............................................................30 FIGURA 3 Representação do Crédito......................................................................................32 FIGURA 4 Resumo dos 5 Cs do Crédito..................................................................................38 FIGURA 5 Termômetro da insolvência....................................................................................46 FIGURA 6 Escala de classificação de risco..............................................................................57 FIGURA 7 Representação em diagramas de blocos do sistema nervoso................................65 FIGURA 8 Representação de um neurônio..............................................................................65 FIGURA 9 Modelo não linear de um neurônio........................................................................67 FIGURA 10 Funções de Ativação............................................................................................69 FIGURA 11 Rede alimentada adiante ou acíclica com uma única camada de neurônios........71 FIGURA 12 Rede alimentada adiante de múltiplas camadas...................................................72 FIGURA 13 Redes recorrentes.................................................................................................73 FIGURA 14 Aprendizagem supervisionada.............................................................................75 FIGURA 15 Aprendizado por reforço......................................................................................76 FIGURA 16 Aprendizagem não supervisionada......................................................................77 FIGURA 17 Diagrama de fluxo de sinal do perceptron...........................................................78 FIGURA 18 Ilustração do hiperplano como fronteira de decisão............................................79 FIGURA 19 Padrões separáveis linearmente (a) e não separáveis linearmente (b) ................80 FIGURA 20 Esquema do mapeamento sucessivo em camadas realizado por uma rede PLP..82 FIGURA 21 Fluxo de processamento do algoritmo back-propagation....................................83 FIGURA 22 Arquitetura feedforward (Modelo – MT&D e Modelo – MT) com uma camada oculta.........................................................................................................................................97

LISTA DE QUADROS

QUADRO 1 Estrutura Tradicional do Balanço........................................................................22 QUADRO 2 Os Ciclos no Balanço Patrimonial.......................................................................24 QUADRO 3 Vantagens e limitações dos modelos...................................................................43 QUADRO 4 Quantidade de índices versus qualidade da análise.............................................54 QUADRO 5 Hipótese de configuração da Rede Neural...........................................................93 QUADRO 6 Parâmetros de saída das configurações realizadas no SPSS................................95

LISTA DE TABELAS TABELA 1 Classificação do nível de risco..............................................................................37 TABELA 2 Quantidade de índices que influenciam os resultados obtidos com cinquenta e quatro empresas.........................................................................................................................49 TABELA 3 Resumo do processamento de caso.......................................................................96 TABELA 4 Informações de rede..............................................................................................96 TABELA 5 Importância da variável independente...................................................................98 TABELA 6 Resumo do modelo................................................................................................99 TABELA 7 Percentual de classificação das redes neurais artificiais.....................................100 TABELA 8 Estimativas do parâmetro (Matrizes de coeficientes ou pesos de conexão) .......100

LISTA DE SIGLAS AC – Ativo Circulante ACC – Adiantamentos de Contratos de Câmbio ACO – Ativo Circulante Operacional AF – Ativo Financeiro AP – Ativo Permanente BACEN – Banco Central do Brasil BM&F – Bolsa de Mercadorias & Futuros BM&FBOVESPA – Bolsa de Valores, Mercadorias e Futuros BOVESPA – Bolsa de Valores de São Paulo CCL – Capital Circulante Líquido CDG – Capital de Giro CM – Correção Monetária ELP – Exigível a Longo Prazo (Obs.: O ELP a partir da Lei nº 11.638/07 passou a ser passivo não circulante (SILVA, 2012, p. 375), e será adotado no presente trabalho em todas as fórmulas utilizadas). IBGE – Instituto Brasileiro de Geografia e Estatística IBM – International Business Machines MLP – Multi Layer Perceptron (perceptron de múltiplas camadas) NCG – Necessidade de Capital de Giro NIG – Necessidade de Investimento em Giro PC – Passivo Circulante PCO – Passivo Circulante Operacional PF – Passivo Financeiro PMPC – Prazo Médio de Pagamento das Compras PMRE – Prazo Médio de Rotação de Estoque PMRV – Prazo Médio de Recebimento das Vendas PP – Passivo Permanente RNA – Redes Neurais Artificiais SPSS – Statistical Package for Social Science T – Saldo em Tesouraria TL – Termômetro da Liquidez TSF – Termômetro da Situação Financeira

SUMÁRIO

1 INTRODUÇÃO ................................................................................................................... 14 2 OBJETIVOS ........................................................................................................................ 16 2.1 Objetivo geral .................................................................................................................... 16 2.2 Objetivos específicos ......................................................................................................... 16 3 REFERENCIAL TEÓRICO .............................................................................................. 17 3.1 Solvência e insolvência ..................................................................................................... 17 3.2 Análise financeira ............................................................................................................. 18 3.2.1 Modelo tradicional .......................................................................................................... 20 3.2.2 Modelo dinâmico ............................................................................................................ 23 3.2.2.1 Necessidade de Capital de Giro (NCG)........................................................................ 25 3.2.2.2 Capital de Giro (CDG) ................................................................................................. 27 3.2.2.3 Saldo de Tesouraria (T) ................................................................................................ 28 3.2.2.4 A dinâmica do Efeito Tesoura ...................................................................................... 29 3.2.2.5 Termômetro de Liquidez .............................................................................................. 30 3.3 Crédito ............................................................................................................................... 31 3.3.1 Definições e relevância do crédito ................................................................................. 31 3.3.2 Conceito de risco de crédito............................................................................................ 34 3.3.3 Análise de risco de crédito .............................................................................................. 36 3.3.3.1 Cs do Crédito ................................................................................................................ 37 3.3.3.2 Modelos de análise de risco de crédito ......................................................................... 42 3.3.4 Histórico e desenvolvimento da análise de crédito ........................................................ 44 3.3.4.1 O modelo de Altman (1968) ......................................................................................... 44 3.3.4.2 O modelo de Kanitz (1974) .......................................................................................... 45 3.3.4.3 O modelo de Elizabetsky (1976) .................................................................................. 47 3.3.4.4 O modelo de Matias (1978) .......................................................................................... 50 3.3.4.5 O modelo de Altman, Baidya e Dias (1979) ................................................................ 52 3.3.4.6 O modelo de Pereira (1982).......................................................................................... 54 3.3.4.7 Outros estudos relevantes ............................................................................................. 58 3.4 Redes neurais artificiais ................................................................................................... 61 3.4.1 Redes neurais artificiais: breve histórico....................................................................... 63 3.4.2 Inspiração biológica: o cérebro humano ....................................................................... 64 3.4.3 O neurônio artificial: funcionamento ........................................................................... 66 3.4.4 Principais tipos de função de ativação........................................................................... 69 3.4.5 Principais arquiteturas ................................................................................................... 70 3.4.5.1 Redes alimentadas adiante com camada única ............................................................. 71 3.4.5.2 Redes alimentadas adiante com múltiplas camadas ..................................................... 72 3.4.5.3 Redes recorrentes .......................................................................................................... 73

3.4.6 Tipos de aprendizagem das RNA ................................................................................... 74 3.4.6.1 Aprendizagem supervisionada...................................................................................... 74 3.4.6.2 Aprendizagem por reforço ............................................................................................ 76 3.4.6.3 Aprendizagem não supervisionada ............................................................................... 76 3.4.7 Redes perceptron............................................................................................................. 77 3.4.7.1 Perceptron de uma única camada ................................................................................. 78 3.4.7.2 Perceptron de multicamadas ........................................................................................ 80 3.4.7.3 Algoritmo back-propagation ........................................................................................ 82 3.4.8 Vantagens e limitações das redes neurais ..................................................................... 85 4 METODOLOGIA................................................................................................................ 87 4.1 A escolha das variáveis do modelo tradicional .............................................................. 88 4.2 A escolha das variáveis do modelo dinâmico ................................................................. 90 4.3 Redes neurais artificiais ................................................................................................... 90 4.4 Pacote estatístico utilizado ............................................................................................... 93 5 RESULTADOS E DISCUSSÃO ........................................................................................ 94 5.1 Criando e definindo o melhor modelo com redes neurais ............................................ 94 6 CONCLUSÕES E RECOMENDAÇÕES ....................................................................... 101 6.1 Conclusões ....................................................................................................................... 101 6.2 Recomendações para trabalhos futuros ....................................................................... 103 REFERÊNCIAS BIBLIOGRÁFICAS ............................................................................... 104 ANEXO A – Contas utilizadas para definição do modelo tradicional e do modelo dinâmico de análise financeira ............................................................................................ 108

14

1 INTRODUÇÃO

Desde o princípio da civilização, o crédito vem desempenhando papel importante nas relações humanas. Este vem sendo fundamental no cotidiano, facilitando tanto as transações de bens quanto as de serviços. Pode-se dizer que toda a sociedade moderna é fundamentada em um sistema de crédito. Nesse sentido, observa-se que o estudo de ferramentas que auxiliam o fornecimento do crédito possui grande importância, tanto de ordem econômica quanto de ordem social, tendo em vista que o crédito concedido por instituições financeiras possibilita uma série de vantagens para a economia como um todo. Quando o assunto é crédito, busca-se encontrar segurança contra o risco presente nas operações ou, no mínimo, transformar a incerteza em risco. Como o crédito é de suma importância para a sociedade, uma correta avaliação deste se mostra imprescindível. Nos relatórios divulgados pelo Banco Central do Brasil (BACEN), pode-se observar a relevância do crédito no Brasil. O BACEN (2012, p.31) afirma que “o saldo das operações de crédito do sistema financeiro, com recursos livres e direcionados, atingiu R$2.211 bilhões em agosto, de 2012, elevando-se 3,5% no trimestre e 17% em doze meses. O volume correspondeu a 51% do PIB, antes 50,1% em maio e 46,6% em agosto de 2011”. Nas operações de crédito do sistema financeiro se destacaram, entre outras, as contratações de pessoas jurídicas, em especial, aquelas envolvendo Adiantamentos de Contratos de Câmbio (ACC) e empréstimos para Capital de Giro. Ainda segundo o BACEN (2012, p.31), “o crédito ao setor privado somou R$2.105 bilhões em agosto, aumentando 2,9% no trimestre e 15,7% em doze meses”. Atualmente, existem diversas ferramentas que se propõem à análise do crédito, algumas delas de ordem quantitativa. As mais tradicionais na construção de modelos de risco de crédito são as técnicas de análise multivariada, como, por exemplo, a Análise Discriminante e a Regressão Logística. Entretanto, novas técnicas de Inteligência Artificial têm chamado a atenção dos pesquisadores. Entre elas, estão as redes neurais artificiais que serão tratadas no presente estudo. Busca-se, neste trabalho, construir um modelo de avaliação de crédito, utilizando a técnica de redes neurais artificiais. Este deve ser capaz de identificar empresas (pessoas jurídicas) que estão próximas à falência, evitando, assim, a perda do capital concedido.

15

O problema da pesquisa é descobrir se as redes neurais artificiais podem auxiliar a análise financeira, de forma a discriminar empresas solventes de empresas insolventes, no momento da análise do crédito oferecido pelas instituições credoras. Contudo, para a criação de um modelo de risco de crédito para pessoa jurídica, vários fatores devem ser observados, tais como conceito de insolvência, conceito de crédito, características da ferramenta utilizada (redes neurais) e especificação da base de dados que será utilizada para a construção do modelo. Sobre esta última, na análise de pessoas jurídicas, serão utilizados, como base de dados, índices econômico-financeiros. Optou-se, no presente estudo, por utilizar tanto índices do modelo tradicional como do modelo dinâmico de análise financeira, visando melhorar a acurácia na previsão. A escolha destas duas metodologias de análise financeira busca atingir a necessidade de integração do modelo tradicional com o modelo dinâmico de análise financeira, como explanam Brasil e Brasil (2008). Cabe observar que o presente trabalho, ao que se pesquisou, é o primeiro estudo sobre insolvência empresarial, que integra a aplicação de redes neurais artificiais, para a criação do modelo de concessão de crédito, quanto à integração do modelo tradicional com o modelo dinâmico de análise financeira.

16

2 OBJETIVOS

2.1 Objetivo geral

 Gerar um modelo que pode ser capaz de prever a solvência e a insolvência de empresas, utilizando Redes Neurais Artificiais.

2.2 Objetivos específicos

 Definir os índices econômico-financeiros que serão utilizados, com base no Modelo Tradicional e no Modelo Dinâmico de análise financeira.  Encontrar a melhor configuração de rede neural para o presente problema.  Verificar a contribuição dos índices pertencentes ao Modelo Dinâmico, para o modelo gerado.

17

3 REFERENCIAL TEÓRICO

O presente referencial teórico foi desenvolvido no intuito de embasar o estudo a ser realizado, abrangendo todos os aspectos relevantes à construção e ao desenvolvimento de um modelo de análise financeira empresarial, que visa à concessão de crédito à pessoa jurídica. Este se inicia apresentando algumas considerações sobre solvência e insolvência empresarial, devido à sua relevância para a atual pesquisa. Na sequência, dirige-se para o foco da pesquisa, que é a análise financeira, discutindo o modelo tradicional e o modelo dinâmico. Depois, apresenta algumas características do crédito como importância, conceito, risco e análise. Ainda dentro do crédito, é feito um levantamento dos principais modelos de análise realizados, desde Altman (1968) até alguns trabalhos mais atuais, além de abordar também algumas das técnicas de análise mais usuais nesta área. Por último, são abordadas as Redes Neurais Artificiais e suas especificidades, tanto na análise de crédito quanto para seu método de modelagem.

3.1 Solvência e insolvência

No presente estudo, é relevante descobrir se determinada empresa é solvente ou se ela se tornará insolvente, isto é, descobrir empresas solventes ou empresas em estado de préinsolvência (empresas que, posteriormente, irão falir ou pedir concordata), por meio da análise de seus balanços. Para Pereira et al. (2007), uma limitação importante no presente tipo de estudo é a definição que se utiliza sobre fracasso empresarial, sendo que este tema tem sido abordado de diversas maneiras, por distintos autores. Segundo o autor, não há uma teoria geral para o fracasso empresarial nem uma definição única para este conceito. Esta definição se mostra importante, uma vez que, ao selecionar as amostras, tanto das empresas insolventes como as amostras das empresas solventes, é preciso estar claro o que será considerado como fracasso empresarial. Brigham e Ehrhardt (2012, p. 204) afirmam que, “quando um negócio se torna insolvente, ele não possui caixa suficiente para saldar os pagamentos de juros e do principal”,

18

chegando a uma situação onde o valor contábil do seu passivo é maior que o valor de mercado dos seus ativos. Já Matias (1978, p. 55) considera que “é considerada insolvente toda a empresa que não consegue saldar seus compromissos”. Consequentemente, a solvência empresarial é a capacidade de pagamento que determinada empresa tem sobre suas obrigações, no ato de seus vencimentos. Altman (1968) utiliza o termo falência para se referir a empresas que estão legalmente falidas e colocadas em liquidação judicial ou ainda para empresas que estão sob concordata (direito concedido de reorganizar), de acordo com as disposições da Lei de Falências. No intuito de direcionar o estudo, será utilizado o termo ‘Solvente’ apenas para instituições que têm uma boa saúde econômica e financeira. E ‘Insolvente’ para representar empresas que passaram por dificuldades financeiras (não conseguiram quitar suas dívidas em tempo hábil) e entraram em processo de falência ou concordata, conforme definido pela legislação vigente. É preciso lembrar que, no Brasil, a lei de falência e concordatas, Lei n. 7.661 de 21 de junho de 1945, foi revogada pela Lei nº 11.101, de fevereiro de 2005, que passa a valer para todos os casos de falência e concordata.

3.2 Análise financeira

Uma evolução conceitual e prática é o que tem ocorrido com a administração financeira ao longo do tempo, ainda mais se comparada à análise financeira do começo da era industrial até os dias atuais. Tal diferença se torna bastante acentuada quando se comparam práticas utilizadas pelos administradores financeiros dentro das modernas organizações com as práticas utilizadas no passado. Assaf Neto (2010) esclarece que, inicialmente, a administração financeira ocupava uma posição menos ambiciosa, tendo um posicionamento mais descritivo dos fenômenos financeiros. Contudo, atualmente, a área financeira tem apresentado uma postura mais questionadora e reveladora, tanto no que diz respeito ao comportamento do mercado em geral, quanto à tomada de decisões empresariais. Entretanto, a utilidade da análise financeira depende basicamente de seu público: administradores utilizam para monitorar a situação da empresa; empresas credoras a usam

19

para determinar se certas empresas têm credibilidade para um empréstimo ou não e os acionistas a utilizam para prever futuros resultados dentro das organizações (BRIGHAM; EHRHARDT, 2012). Dentro das decisões financeiras, de modo geral, Assaf Neto (2010) afirma que dois fatores devem ser considerados: primeiro o econômico, que tem como base a relação entre o retorno do investimento e o custo da captação; segundo o financeiro, que é representado pela sincronização entre a capacidade de geração de caixa dos negócios e o fluxo de desembolsos exigidos pelos passivos. É preciso lembrar que o equilíbrio financeiro depende de alinhar os prazos entre os ativos e os passivos. Em resumo, as decisões tomadas com objetivo de investimento devem ser compatíveis com as decisões de financiamento. Brigham e Ehrhardt (2012) dividem a análise financeira basicamente em quatro demonstrações financeiras: Balanço Patrimonial, demonstração de resultados, demonstração do patrimônio líquido e demonstração dos fluxos de caixa, sendo todas basicamente de igual importância. De forma ampla, a análise financeira tem como objetivo comparar os resultados apresentados por uma empresa aos de suas concorrentes ou ainda de verificar, durante certo período, a sua situação financeira ou patrimonial. Brasil e Brasil (2008) salientam que, tradicionalmente, a análise financeira parte de uma visão estática da organização, que procura responder se a empresa terá condições de saldar seus compromissos, no caso de encerramento de suas atividades. Ou seja, a ênfase recai sobre os aspectos relativos à solvência da empresa, em um sistema que parou de funcionar, medidos pelos índices de liquidez, que são úteis, mas não dizem tudo. Já por uma perspectiva do enfoque dinâmico da análise financeira, pode-se partir do princípio que a empresa é um organismo vivo, inserido em um ambiente constantemente mutável. Volta-se para os aspectos financeiros de liquidez, que procura responder se a empresa tem capacidade de cumprir com suas obrigações, mantendo-se em funcionamento e permitindo ao gestor tomar medidas durante o processo (BRASIL; BRASIL, 2008). A visão estática da análise tradicional é baseada na solvência da empresa (via 1) e a visão sistêmica da análise dinâmica é focada na liquidez empresarial (via 2). Estas duas visões e sua respectiva complementariedade (integração) são desejadas, como sugerem Brasil e Brasil (2008). Esta necessidade de integração entre os dois modelos pode ser mais bem visualizada na Figura 1.

20

Gestão Financeira das Empresas Nível Contábil Via 1 Enfoque de Solvência. Estático Ênfase no Registro

Classificação Funcional Específica

Análise por Indexações

Finalidade

Via 2 Enfoque de Liquidez. Dinâmico Análise dos Fluxos

Sistêmico

Ênfase na Gestão Classificação Funcional Específica

Necessidade de Integração Figura 1: Necessidade de Integração do Modelo Tradicional e do Modelo Dinâmico. Fonte: Adaptado de Brasil e Brasil (2008, p. 3).

Dentro da análise financeira, Brigham e Ehrhardt (2012) frisam que os indicadores financeiros são desenvolvidos para extrair informações relevantes sobre as organizações, que podem não ser óbvias, se o analista simplesmente examinar as demonstrações financeiras de uma empresa, complementam:

Em síntese, conduzir uma análise de índices de maneira mecânica, sem planejamento, é perigoso. Porém quando usada de maneira inteligente e com bom discernimento, ela pode nos levar a conclusões úteis sobre as operações de uma empresa e identificar as perguntas a serem feitas. (BRIGHAM; EHRHARDT, 2012, p. 108).

Mas, quanto à previsão de insolvência, a literatura financeira não estabelece de forma definitiva quais são os melhores indicadores a serem utilizados. Vários índices são utilizados de forma recorrente por vários pesquisadores, contudo o processo de escolha depende, normalmente, da disponibilidade de dados e da intuição do pesquisador.

3.2.1 Modelo tradicional

Neste tópico, apresentar-se-ão algumas considerações sobre o modelo tradicional de análise das demonstrações financeiras, considerado um importante método de levantamento de informações, tanto para o público interno quanto para o público externo das organizações. Matias (1978) observa que a análise financeira tradicional está consagrada no meio bancário empresarial quando a pauta é a concessão de crédito. Contudo, afirma que existe um

21

“excesso de informações”, que são pouco relevantes na análise das empresas. Outro fator que o autor salienta é o enorme número de índices financeiros, sendo que, os teóricos do assunto tornaram-se complexos e desviaram-se do objetivo básico que é identificar boas e más empresas no menor tempo e a um baixo custo. O enfoque tradicional confronta ativos e passivos circulantes, objetivando descobrir a capacidade de pagamento de uma determinada empresa e sua capacidade de sobrevivência, ao longo do tempo. Isto é, a capacidade de pagamento das obrigações da empresa está vinculada ao fato de esta ter de alienar seu ativo circulante. O modelo tradicional de análise das demonstrações financeiras constitui um dos mais importantes estudos da administração financeira, visando, fundamentalmente, o desempenho econômico-financeiro das empresas, que segundo Assaf Neto (2010, p. 103):

Para melhor compreensão do significado dos indicadores econômico-financeiros, assim como visando estabelecer uma melhor metodologia de avaliação dos diversos aspectos do desempenho da empresa, dividem-se os índices em grupos homogêneos de análise. [...] esses indicadores básicos de análise estão classificados em quatro grupos, ou seja: liquidez e atividade, endividamento e estrutura, rentabilidade e análise de ações.

Esse enfoque de análise calcula as associações existentes nas contas/grupos do Balanço Patrimonial, que é determinado apenas em certa data, como uma fotografia da empresa, por isso é chamado de estático. Seu principal foco é a insolvência ou solvência da empresa, pelo cálculo dos seus indicadores de liquidez. Kanitz (1978, p. 8) enuncia que “ao contrário do que se costuma pensar, os índices de liquidez não são um indicador seguro do estado de solvência das empresas”. Assaf Neto (2010) esclarece que estes indicadores tradicionais de liquidez demonstram uma posição financeira, em dado momento de tempo, especificamente na hora que eles foram colhidos. Então não refletem a magnitude nem a época posterior onde eles serão analisados, porque os diversos valores considerados são continuamente alterados devido à dinâmica natural dos negócios. Os cálculos dos principais indicadores de liquidez são descritos a seguir:

Í𝑛𝑖𝑙𝑙𝑖 𝑖𝑖 𝐿𝑙𝑞𝑝𝑙𝑖𝑖𝑧 𝐶𝑙𝑖𝑖𝑖𝑛𝑡𝑖 = Í𝑛𝑖𝑙𝑙𝑖 𝑖𝑖 𝐿𝑙𝑞𝑝𝑙𝑖𝑖𝑧 𝑆𝑖𝑙𝑎 =

𝐴𝑡𝑖𝑣𝑜 𝐶𝑖𝑟𝑐𝑢𝑙𝑎𝑛𝑡𝑒 𝑃𝑎𝑠𝑠𝑖𝑣𝑜 𝐶𝑖𝑟𝑐𝑢𝑙𝑎𝑛𝑡𝑒

(𝐴𝑡𝑖𝑣𝑜 𝐶𝑖𝑟𝑐𝑢𝑙𝑎𝑛𝑡𝑒 – 𝐸𝑠𝑡𝑜𝑞𝑢𝑒𝑠 – 𝐷𝑒𝑠𝑝𝑒𝑠𝑎𝑠 𝐴𝑛𝑡𝑒𝑐𝑖𝑝𝑎𝑑𝑎𝑠) 𝑃𝑎𝑠𝑠𝑖𝑣𝑜 𝐶𝑖𝑟𝑐𝑢𝑙𝑎𝑛𝑡𝑒

(1)

(2)

22

Í𝑛𝑖𝑙𝑙𝑖 𝑖𝑖 𝐿𝑙𝑞𝑝𝑙𝑖𝑖𝑧 𝐼𝑠𝑖𝑖𝑙𝑎𝑡𝑎 = Í𝑛𝑖𝑙𝑙𝑖 𝑖𝑖 𝐿𝑙𝑞𝑝𝑙𝑖𝑖𝑧 𝐺𝑖𝑖𝑎𝑙 =

𝐷𝑖𝑠𝑝𝑜𝑛í𝑣𝑒𝑙 𝑃𝑎𝑠𝑠𝑖𝑣𝑜 𝐶𝑖𝑟𝑐𝑢𝑙𝑎𝑛𝑡𝑒

(3)

(𝐴𝑡𝑖𝑣𝑜 𝐶𝑖𝑟𝑐𝑢𝑙𝑎𝑛𝑡𝑒 + 𝑅𝑒𝑎𝑙𝑖𝑧á𝑣𝑒𝑙 𝑎 𝐿𝑜𝑛𝑔𝑜 𝑃𝑟𝑎𝑧𝑜) (𝑃𝑎𝑠𝑠𝑖𝑣𝑜 𝐶𝑖𝑟𝑐𝑢𝑙𝑎𝑛𝑡𝑒 + 𝐸𝑥𝑖𝑔í𝑣𝑒𝑙 𝑎 𝐿𝑜𝑛𝑔𝑜 𝑃𝑟𝑎𝑧𝑜)

(4)

Segundo Assaf Neto e Silva (2012), tais indicadores têm a sua importância, mas não costumam fornecer informações, ao analista, sobre as efetivas necessidades de capital de giro e também a posição financeira corrente e esperada da empresa. Fleuriet et al. (2003) argumentam que a estrutura da apresentação tradicional agrupa as diversas contas, de acordo com dois critérios de classificação. O primeiro distingue, verticalmente, as contas do ativo, que representam as aplicações, e as contas do passivo, que representam a origem destas aplicações. O segundo agrupa, horizontalmente, as contas do ativo e do passivo, de acordo com os prazos destas contas, numa ordem de disponibilidade decrescente. Esta estrutura tradicional do Balanço Patrimonial pode ser visualizada no Quadro 1.

PRAZOS

ATIVO APLICAÇÕES DE FUNDOS

PASSIVO ORIGENS DOS FUNDOS

Curto prazo

Ativo circulante

Aplicações por alguns dias

Fundos disponíveis por alguns dias

Curto prazo

Ativo circulante

Aplicações por menos de 365 dias

Fundos disponíveis por menos de 365 dias

Longo Prazo

Ativo não circulante

Aplicações por mais de 365 dias

Fundos disponíveis por mais de 365 dias

Passivo circulante

Passivo não circulante

Quadro 1: Estrutura Tradicional do Balanço. Fonte: Adaptado de Fleuriet et al. (2003, p. 2).

Fleuriet et al. (2003) explicam que o ativo divide-se em ativo circulante e ativo não circulante. O ativo circulante desdobra-se nos grupos do disponível e do realizável a curto prazo. O disponível são valores utilizados livremente no dia-a-dia da empresa, e o realizável a curto prazo são valores utilizados dentro do ciclo de produção ou inferiores a 365 dias. Já as contas do ativo não circulante são aquelas de longo prazo, permanente ou quase permanentes (maiores que 365 dias ou superiores ao ciclo de produção). Já o passivo divide-se em passivo circulante e passivo não circulante. O passivo circulante mostra as contas referentes às obrigações para com terceiros a curto prazo (prazo inferior a 365 dias ou dentro do ciclo de produção da empresa). O passivo não circulante compreende obrigações para com capital próprio e capital de terceiros, de exigibilidade em longo prazo (FLEURIET et al., 2003).

23

Fleuriet et al. (2003) criticam o modelo tradicional, no sentido de que a classificação horizontal mede, de forma errônea, os prazos de permanência, durante os quais os fundos ficam à disposição da empresa. O autor observa que certas contas do ativo e passivo renovamse constantemente, à medida que se desenvolvem as operações da empresa. Este fato constitui a base para uma nova classificação horizontal e o surgimento de uma nova metodologia, que será apresentada no próximo tópico.

3.2.2 Modelo dinâmico

O Modelo Dinâmico surge da importante contribuição dada por Michel Fleuriet, Ricardo Kehdy e Georges Blanc, em 1978, através da reclassificação dos grupos de contas do Balanço Patrimonial. Esta reclassificação traz novos quocientes, gerados a partir dos estudos focados na dinâmica do capital de giro. De acordo com Fleuriet et al. (2003, p. 7):

Para uma melhor compreensão do modelo de análise financeira que se pretende definir, as contas do ativo e do passivo devem ser consideradas em relação à realidade dinâmica das empresas, em que as contas são classificadas de acordo com o seu ciclo, ou seja, o tempo que leva para se realizar uma rotação.

Contudo, a implementação do Modelo Dinâmico proposto por Fleuriet pressupõe a reclassificação das demonstrações financeiras, que são elaboradas e divulgadas pelas empresas e fixadas pela Lei nº 6.404/76, no Art. 178 e pela Lei nº 11.638, de 28 de dezembro de 2007, para um padrão completamente dinâmico e funcional, com o objetivo de atender a administração financeira da organização de forma satisfatória. Fleuriet et al. (2003) apresentam como se dá a classificação das contas dentro do Balanço Patrimonial, de acordo com o novo modelo proposto, como pode ser visto a seguir. Algumas contas apresentam um movimento mais lento, quando analisadas isoladamente, em relação a outras contas do Balanço Patrimonial, podendo ser chamadas de não cíclicas ou permanentes. Outras contas são diretamente influenciadas pelo volume de negócios (produção e vendas) e por características do ciclo operacional (condições de recebimento e pagamento, prazo de estocagem), podendo ser classificadas como cíclicas ou operacionais, por estarem relacionadas com o ciclo operacional do negócio.

24

E, por fim, como defende o autor, existem contas que não apresentam necessariamente um vínculo direto com o ciclo operacional da empresa, variando em função da conjuntura e do risco de maior ou menor liquidez que a empresa deseja assumir, apresentando um movimento “descontínuo e errático”. Essas são chamadas de erráticas ou financeiras. Segundo a definição do próprio autor: “Errático, do latim erraticu. Errante, vadio, erradio, aleatório, andando fora do caminho. Ou seja, implica a não ligação dessas contas ao Ciclo Operacional da empresa” (FLEURIET et al., 2003, p. 7). Toda esta metodologia pode ser mais bem compreendida no Quadro 2.

Financeiro

Circulante

Numerário em Caixa,

Duplicatas Descontadas,

Bancos com movimentos,

Empréstimos Bancários a

Títulos e Valores Mobiliários.

Curto Prazo, Dividendos a Pagar, Imposto de Renda a recolher etc.

Duplicatas a receber, Operacional

CONTAS CÍCLICAS

Circulante

Estoques de Produtos Acabados, Estoque de Produção em andamento Estoque de Matérias-Primas,

Fornecedores de Matérias-Primas, Salários e Encargos Sociais, Impostos e Taxas.

PASSIVO CIRCULANTE CONTAS CONTAS ERRÁTICAS CÍCLICAS Operacional

ATIVO CIRCULANTE

PASSIVO

Financeiro

CONTAS ERRÁTICAS

ATIVO

Adiantamento a fornecedores etc. Exigível a Longo Prazo

Permanente

CONTAS NÃO CÍCLICAS

ATIVO NÃO CIRCULANTE

Títulos a receber etc.

Permanente Investimentos, Imobilizados Diferido.

Quadro 2: Os ciclos no Balanço Patrimonial. Fonte: Adaptado de Fleuriet et al. (2003, p. 8).

Debêntures, Financiamentos etc.

Patrimônio Líquido Capital Social Reservas, Lucros ou prejuízos acumulados.

Permanente

Empréstimos a Terceiros

a Longo Prazo,

PASSIVO NÃO CIRCULANTE

Realizável a Longo Prazo

CONTAS NÃO CÍCLICAS

Empréstimos Bancários

25

Dessa nova segmentação do Balanço Patrimonial, surgem as variáveis do Modelo Dinâmico, que são: Necessidade de Capital de Giro (NCG), Capital de Giro (CDG) e Saldo de Tesouraria (T), estes novos indicadores são utilizados na análise econômico-financeira das empresas não mais de forma estática, mas, sim, encarando a organização como um organismo vivo. Com base nestas três variáveis, surge a análise do Efeito Tesoura e pode-se ainda obter uma quarta variável conhecida como Termômetro da Liquidez, que resulta da relação entre Saldo de Tesouraria e Necessidade de Capital de Giro (T/NCG). Contudo, cabe lembrar que o modelo proposto por Fleuriet et al. (1978) também é constante na reedição da obra de Fleuriet et al. (2003), na obra de Brasil e Brasil (2008) e na obra de Assaf Neto e Silva (2012). A respectiva estrutura deste modelo será apresentada e discutida a seguir.

3.2.2.1 Necessidade de Capital de Giro (NCG)

A necessidade de capital de giro mede a quantidade de investimentos operacionais (cíclicos), que são necessários para manter as operações da empresa dentro do seu ciclo operacional, de forma que esta consiga financiar suas atividades operacionais. Fleuriet et al. (2003) descreve a NCG da seguinte maneira: dentro do ciclo financeiro das empresas, as saídas de caixa (gastos com a produção) ocorrem antes das entradas de caixa (recebimento das vendas), as operações da empresa, então, criam uma necessidade de aplicação permanente de fundos (esta denomina-se necessidade de capital de giro), que é evidenciada no Balanço Patrimonial por uma diferença positiva entre o valor das contas operacionais (cíclicas) do ativo e das contas operacionais (cíclicas) do passivo. Já segundo Assaf Neto e Silva (2012, p. 68), a necessidade de capital de giro pode ser descrita da seguinte forma:

[...] quando a atividade operacional da empresa criar um fluxo de saídas de caixa mais rápido que o da entrada (os pagamentos dos fatores de produção ocorrem antes ao recebimento da venda, por exemplo), identifica-se claramente uma necessidade permanente de investimento em seu giro, que é apurada pela diferença existente entre os ativos e passivos cíclicos [...].

26

Neste sentido, destacado por Fleuriet et al. (2003) e por Assaf Neto e Silva (2012), o cálculo da necessidade de capital de giro pode ser obtido pela seguinte expressão: 𝑁𝑖𝑙𝑖𝑙𝑙𝑙𝑖𝑎𝑖𝑖 𝑖𝑖 𝐶𝑎𝑖𝑙𝑡𝑎𝑙 𝑖𝑖 𝐺𝑙𝑖𝑙 =

𝐴𝑡𝑖𝑣𝑜 𝐶𝑖𝑟𝑐𝑢𝑙𝑎𝑛𝑡𝑒 𝑂𝑝𝑒𝑟𝑎𝑐𝑖𝑜𝑛𝑎𝑙 – 𝑃𝑎𝑠𝑠𝑖𝑣𝑜 𝐶𝑖𝑟𝑐𝑢𝑙𝑎𝑛𝑡𝑒 𝑂𝑝𝑒𝑟𝑎𝑐𝑖𝑜𝑛𝑎𝑙

𝑙𝑝 𝑁𝐶𝐺 = 𝐴𝐶𝑂 – 𝑃𝐶𝑂

(5)

Outra consideração importante ressaltada por Assaf Neto e Silva (2012) é de que a variável Necessidade de Capital de Giro é diferente do tradicional Capital Circulante Líquido, conforme o mesmo é definido no sentido clássico, ou seja, Capital Circulante Líquido (CCL) define-se como: 𝐶𝑎𝑖𝑙𝑡𝑎𝑙 𝐶𝑙𝑖𝑙𝑝𝑙𝑎𝑛𝑡𝑖 𝐿í𝑞𝑝𝑙𝑖𝑙 = 𝐴𝑡𝑙𝑣𝑙 𝐶𝑙𝑖𝑙𝑝𝑙𝑎𝑛𝑡𝑖 – 𝑃𝑎𝑙𝑙𝑙𝑣𝑙 𝐶𝑙𝑖𝑙𝑝𝑙𝑎𝑛𝑡𝑖 𝑙𝑝 𝐶𝐶𝐿 = 𝐴𝐶 – 𝑃𝐶

(6)

É importante lembrar que a NCG é diferente do CCL, em virtude da NCG ser

composta somente por parte do ativo e do passivo circulante, isto é, somente as contas operacionais (cíclicas) relacionadas ao ativo e ao passivo. Já do ponto de vista da análise da solvência, Melo e Coutinho (2007), em seu estudo sobre como o Modelo Dinâmico pode ser utilizado como indicador conjunto de solvência e rentabilidade, afirmam que a NCG é do tipo “quanto menor melhor”. Em outras palavras, quanto maior o valor desse indicador, maior será a probabilidade da empresa ter de utilizar de recursos financeiros de curto prazo para financiá-lo, sendo que estes não apresentam garantia alguma de renovação, aumentando assim o risco de insolvência da empresa. É preciso observar que a Necessidade de Capital de Giro dentro de uma empresa é um conceito econômico-financeiro e não uma definição legal exigida por lei. Esta se refere ao saldo de contas cíclicas ligadas às operações da empresa. A classificação contábil, na maioria das vezes, não permite identificar de forma clara as contas do ativo e passivo cíclicos. O valor exato da Necessidade de Capital de Giro pode variar de acordo com as informações de que os analistas financeiros têm em mãos sobre os ciclos econômico e financeiro das empresas (FLEURIET et al., 2003).

27

3.2.2.2 Capital de Giro (CDG)

O Capital de Giro (CDG) é uma importante medida para a empresa, porque tem a finalidade de financiar todas as suas operações, de forma parcial ou completa. Este CDG incorpora todas as contas de longo prazo da organização, que, em parte, são utilizadas para financiar a NCG e também as aplicações permanentes. Fleuriet et al. (2003, p. 12) comentam que "o Capital de Giro é um conceito econômico-financeiro e não uma definição legal, constituindo uma fonte de fundos permanente, utilizada para financiar a Necessidade de Capital de Giro da empresa." Denomina-se Capital de Giro (CDG) a diferença entre o passivo permanente e o ativo permanente. O Ativo Permanente (AP) é formado por contas não cíclicas do ativo e o Passivo Permanente (PP) são as contas não cíclicas do passivo. O cálculo do Capital de giro pode ser realizado pela seguinte fórmula: 𝐶𝑎𝑖𝑙𝑡𝑎𝑙 𝑖𝑖 𝐺𝑙𝑖𝑙 = 𝑃𝑎𝑙𝑙𝑙𝑣𝑙 𝑃𝑖𝑖𝑠𝑎𝑛𝑖𝑛𝑡𝑖 – 𝐴𝑡𝑙𝑣𝑙 𝑃𝑖𝑖𝑠𝑎𝑛𝑖𝑛𝑡𝑖 𝑙𝑝 𝐶𝐷𝐺 = 𝑃𝑃 – 𝐴𝑃

(7)

Pode-se observar que o CDG é um indicador da função exercida pelas contas Não Circulantes na estrutura de financiamento da empresa. Se positivo, representa uma fonte de recursos de longo prazo, para as aplicações de curto prazo da empresa, mas, se negativo, o CDG representará uma escassez de recursos de longo prazo, forçando a empresa a financiar suas atividades com recursos de curto prazo (MELO; COUTINHO, 2007). Fleuriet et al. (2003, p. 11), esclarece que:

A Necessidade de Capital de Giro, quando positiva, reflete uma aplicação permanente de fundos que, normalmente, deve ser financiada com os fundos permanentes utilizados pela empresa. Quando a NCG é financiada com recursos de curto prazo, geralmente empréstimos bancários, o risco de insolvência aumenta.

Melo e Coutinho (2007) mencionam, ainda, que do ponto de vista da análise de solvência, o CDG pode ser interpretado como “quanto maior melhor”. Por ser uma fonte de recursos de longo prazo, o CDG, quando suficientemente alto, ou seja, maior que a Necessidade de Capital de Giro, traz tranquilidade quanto à renovação dos prazos de financiamento de curto prazo de fontes externas.

28

3.2.2.3 Saldo de Tesouraria (T)

O Saldo de Tesouraria (T) é outra importante variável do modelo dinâmico, que, segundo Brasil e Brasil (2008), pode tanto ser um ativo econômico quando está do lado das aplicações (no ativo), como um recurso de curto prazo (no passivo) que, somado ao capital de giro, ajuda a financiar os ativos operacionais (NCG). Isto se dá porque, conjunturalmente, o Saldo de Tesouraria varia em função da Necessidade de Capital de Giro. Fleuriet et al. (2003) denomina o Saldo de Tesouraria a partir das contas do “ativo errático” e do “passivo errático”, que nada mais são do que as contas do “ativo financeiro” e do “passivo financeiro”. Esta denominação é expressa a seguir:

Denominam-se "ativo errático" e "passivo errático" as contas circulantes que não estão diretamente ligadas à operação e cujos valores se alteram de forma aleatória. O saldo de Tesouraria (T) define-se como a diferença entre o ativo e o passivo errático. Apenas para exemplificar, a conta disponível/caixa é considerada como ativo errático e as contas empréstimos de curto prazo e pagamento de Imposto de Renda como passivo errático. (FLEURIET et al., 2003, p. 13).

Tendo estas considerações, o Saldo de Tesouraria pode ser representado pela seguinte expressão, como se segue: 𝑆𝑎𝑙𝑖𝑙 𝑖𝑖 𝑇𝑖𝑙𝑙𝑝𝑖𝑎𝑖𝑙𝑎 = 𝐴𝑡𝑙𝑣𝑙 𝐹𝑙𝑛𝑎𝑛𝑙𝑖𝑙𝑖𝑙 – 𝑃𝑎𝑙𝑙𝑙𝑣𝑙 𝐹𝑙𝑛𝑎𝑛𝑙𝑖𝑙𝑖𝑙 𝑙𝑝 𝑇 = 𝐶𝐷𝐺 – 𝑁𝐶𝐺

(8)

De acordo com Assaf Neto e Silva (2012, p. 70), “o saldo disponível funciona como uma reserva financeira da empresa, para fazer frente a eventuais expansões da necessidade de investimento operacional em giro, principalmente àquelas de natureza sazonal”. Uma condição essencial para o equilíbrio financeiro da empresa é ter seu saldo de tesouraria positivo, garantindo assim uma margem de segurança. Melo e Coutinho (2007) explanam que, tendo em vista a análise da solvência empresarial, o saldo de tesouraria pode ser interpretado como “quanto maior melhor”. Isso porque, quanto menor (ou negativo) ele for, de mais recursos financeiros de curto prazo a empresa precisará para financiar suas atividades, aumentando o risco de insolvência, sendo que estes recursos não apresentam garantia de renovação. Outro fator a ser considerado é quando o Saldo de Tesouraria apresenta valores positivos e muito elevados: isso pode ser um indicativo da existência de excesso de recursos

29

ociosos não aplicados na atividade da empresa, ou seja, perda de rentabilidade devido à má administração financeira.

3.2.2.4 A dinâmica do Efeito Tesoura

A reclassificação do Balanço Patrimonial sugerida por Fleuriet em 1978, dentro de seu Modelo Dinâmico, permite ao analista avaliar a ocorrência do Efeito Tesoura. É também conhecido atualmente como Overtrading, pois esta reclassificação permite o cálculo da Necessidade de Capital de Giro e do Saldo em Tesouraria. Fleuriet et al. (2003) acrescentam que a diretoria financeira deve acompanhar a evolução do Saldo em Tesouraria, a fim de evitar que este permaneça constantemente negativo e crescente, gerando um excesso de empréstimos de curto prazo, que poderá levar a empresa a um estado de insolvência. Assaf Neto e Silva (2012) defendem que o conceito de Efeito Tesoura refere-se a uma forte expansão no volume de atividades de uma empresa (serviços ou produção), sem o devido lastro de recursos disponíveis para financiar suas necessidades adicionais de capital de giro.

Uma situação muito comentada de ocorrência de overtrading ocorre quando uma empresa decide promover economias de escala, através de uma grande expansão em seu nível de produção e vendas. Além da redução de sua capacidade ociosa, o aumento do volume de atividade operacional proporciona maior diluição dos custos fixos com uma consequente redução do custo unitário do produto. (ASSAF NETO; SILVA, 2012, p. 87).

Seguindo esta mesma linha, Carvalho (2004) afirma que, quando uma empresa apresenta, por vários exercícios seguidos, um crescimento das Necessidades de Capital de Giro (NCG), superior ao do seu Capital de Giro (CDG), pode-se dizer que ela convive com o denominado Efeito Tesoura, que será identificado por um crescente Saldo em Tesouraria (T) negativo. O autor ainda salienta que, à medida que as necessidades cíclicas de giro são financiadas por dívidas de curto prazo, há um aumento na diferença entre o NCG e o CDG, agravando assim o Efeito Tesoura. Esse efeito revela que a empresa é incapaz de financiar adequadamente seus investimentos operacionais em giro e suas efetivas necessidades financeiras.

30

Sanvicente e Minardi (1998) observam que estas variáveis que indicam a existência do fenômeno de overtrading, Necessidades de Capital de Giro (NCG) e Saldo em Tesouraria (T), são dois componentes do Capital de Giro Líquido, que é um fator relevante para prever concordatas no Brasil. Atentos ao fato de que várias empresas brasileiras enfrentam situações de insolvência em decorrência do Efeito Tesoura, eles sugerem utilizar NCG e T para avaliar a liquidez, no intuito de melhorar a acurácia da avaliação da insolvência empresarial. O comportamento do Efeito Tesoura é representado por um crescimento mais que proporcional da Necessidade de Capital de Giro em relação ao Capital de Giro, tornando o Saldo em Tesouraria negativo, o que pode ser mais bem observado na Figura 2.

Efeito Tesoura CDG

NCG Anos Figura 2: Representação gráfica do Efeito Tesoura. Fonte: Adaptado de Carvalho (2004, p. 65).

Brasil e Brasil (2008), ainda dentro desta mesma corrente teórica, afirmam que a patologia da administração do Saldo em Tesouraria é o Efeito Tesoura que surge de uma excessiva dependência de empréstimos de curto prazo, o que torna crítica a liquidez da empresa. Os autores frisam que qualquer corte de crédito que ocorra por efeito de desabastecimento da economia e, portanto, das vendas, pode levar a empresa a um estado de insolvência rapidamente, pois o atraso com os fornecedores é inevitável nestas condições. Sendo assim, a análise do Efeito Tesoura (dinâmica do overtrading), conforme recomendado por Assaf Neto e Silva (2012), é mais apropriada para identificar problemas futuros de insolvência dentro das organizações.

3.2.2.5 Termômetro de Liquidez

Outra variável que pode ser analisada no Modelo Dinâmico proposto por Fleuriet é o Termômetro da Situação Financeira (TSF), mais popularmente chamado de Termômetro de

31

Liquidez (TL). Para Fleuriet et al. (2003), mostra a magnitude do saldo negativo de tesouraria em relação à NCG e sua tendência ao longo do tempo e, dependendo dos sinais das duas variáveis envolvidas, apresentam a participação do capital de terceiros de curto prazo que financiam a NCG. Este novo índice pode ser obtido através da seguinte equação:

𝑇𝑖𝑖𝑠ô𝑠𝑖𝑡𝑖𝑙 𝑖𝑖 𝐿𝑙𝑞𝑝𝑙𝑖𝑖𝑧 =

𝑆𝑎𝑙𝑑𝑜 𝑑𝑒 𝑇𝑒𝑠𝑜𝑢𝑟𝑎𝑟𝑖𝑎 𝑁𝑒𝑐𝑒𝑠𝑠𝑖𝑑𝑎𝑑𝑒 𝑑𝑒 𝐶𝑎𝑝𝑖𝑡𝑎𝑙 𝑑𝑒 𝐺𝑖𝑟𝑜

𝑙𝑝

𝑇𝐿 =

(9)

𝑇 𝑁𝐶𝐺

O Termômetro de Liquidez é uma quarta variável do modelo dinâmico, que resulta da relação entre Saldo de Tesouraria e da Necessidade de Capital de Giro, indicando a capacidade de solvência da empresa, sendo que, quanto maior essa relação, maior será a capacidade da empresa de saldar os seus compromissos.

3.3 Crédito

O presente trabalho aborda a construção de uma ferramenta utilizada para a previsão de risco de crédito. Neste contexto, conceituar adequadamente, tanto o Crédito como o Risco de Crédito, se faz necessário e de grande utilidade, para que a compreensão do tema proposto se dê de maneira ampla e efetiva.

3.3.1 Definições e relevância do crédito

Devido à importância do tema para a economia como um todo, existem vários autores que fazem considerações sobre o crédito. Uma das definições mais encontradas em trabalhos sobre crédito é de autoria de Schrickel (2000, p. 25), que assim define crédito:

Crédito é todo ato de vontade ou disposição de alguém de destacar ou ceder, temporariamente, parte de seu patrimônio a um terceiro, com a expectativa de que esta parcela volte a sua posse integralmente, depois de decorrido o tempo estipulado. Essa parte do patrimônio pode ser materializada por dinheiro (empréstimo monetário) ou bens (empréstimo para uso, ou venda com pagamento parcelado, ou a prazo).

32

A palavra crédito, para Silva (2008), compreende vários significados, dependendo unicamente do contexto em que é utilizada. Porém, em sentido mais restrito, o autor considera que crédito é a entrega de um montante (valor presente) mediante uma promessa de pagamento. Ainda segundo o autor, um exemplo é o Banco, que tem a intermediação financeira como sua principal atividade. O crédito consiste, neste caso, em colocar à disposição do cliente (tomador de recursos), certo valor, na forma de empréstimo ou financiamento, mediante a promessa de quitação desta dívida, em certa data futura, visando auferir juros. Segundo Assaf Neto e Silva (2012), crédito diz respeito à troca de bens presentes por bens futuros. O autor complementa que, quando uma empresa concede crédito, troca produtos por uma promessa de pagamento futuro. Por outro lado, uma empresa que obtém crédito recebe produtos e assume o compromisso de efetuar o pagamento no futuro.

Portanto, na concessão de crédito, a empresa terá de responder “sim” ou “não” ao cliente e, caso a resposta seja positiva, deverá responder “até quando”. Novamente, o critério norteador da decisão será a maximização da riqueza da empresa, levandose também em consideração o risco envolvido. (ASSAF NETO; SILVA, 2012, p. 140).

O crédito é um ato de vontade e sempre caberá ao cedente do patrimônio a decisão final de concedê-lo ou não ao tomador (SCHRICKEL, 2000). Esta relação entre as partes atuantes neste processo é ilustrada na Figura 3, identificando o significado restrito do crédito.

EMPRÉSTIMO E FINANCIAMENTO

CREDOR

TOMADOR

PROMESSA DE PAGAMENTO Figura 3: Representação do Crédito. Fonte: Adaptado de Silva (2008, p. 45).

O crédito tem importante função econômica e social na vida das empresas e das pessoas. Silva (2008) afirma que o papel do crédito é possibilitar que as empresas aumentem seu nível de atividade; estimular o consumo e o aumento da demanda; facilitar as pessoas a obterem moradia, bens e até alimentos e financiar a execução de projetos para os quais as empresas não disponham de recursos próprios suficientes. Contudo, cabe ressaltar que o uso

33

inadequado do crédito pode levar uma empresa ou indivíduo à falência (insolvência), assim como também pode vir a ser parte de um processo inflacionário. Já Schrickel (2000, p. 11), considerando a importante função econômica e social do crédito, esclarece que:

Crédito é um conceito presente no dia-a-dia das pessoas e empresas mais do que possamos imaginar a princípio. Todos nós, tanto as pessoas quanto as empresas, estamos continuamente às voltas com o dilema de uma equação simples: a constante combinação de nossos recursos finitos com o conjunto de nossas imaginações e necessidades infinitas – “existem mais maneiras de se gastar dinheiro, por exemplo, do que de ganhá-lo” – ou seja, a procura por crédito, para satisfazer ao elenco de necessidades, desde as mais elementares de sobrevivência, às mais ousadas e imaginosas.

A princípio, qualquer crédito só deve ser concedido após cumprimento da metodologia de aprovação de crédito adotada pela instituição credora. As condições gerais e específicas de cada operação de crédito empreendidas entre credor e cliente devem sempre refletir a realidade do mercado e a época de sua efetiva negociação e concessão (SCHRICKEL, 2000). Silva (2002) salienta que são necessários princípios gerais e permanentes que fundamentem a conduta dos responsáveis pelas operações de crédito. E que estes princípios possam ser devidamente disseminados e, em função deles, as instituições financeiras possam definir as suas políticas de crédito. Como frisa Schrickel (2000), perder dinheiro é intrínseco ao negócio de crédito, porém jamais deve ocorrer a perda por informações que não tenham sido devidamente ponderadas, embora previstas ou previsíveis. O autor chama esta perda de “perda mal perdida” ou “perda burra”. Schrickel (2000, p. 19) ainda enfatiza que “não existe análise de crédito certa, porém existe análise de crédito errada”. Para evitar esta perda, Silva (2002) explica que conhecer bem os clientes é uma das principais preocupações das instituições que oferecem créditos, porque só assim elas podem medir a necessidade de crédito e a capacidade de pagamento e oferecer a quantidade adequada de recursos vinculada às garantias adequadas, visando minimizar as possíveis perdas de capitais e maximizar os seus resultados financeiros, além do crescimento econômico. A análise de crédito deve se dar de forma ampla. Além de analisar dados históricos do cliente, a tomada de decisão deve estar direcionada à prevenção de riscos futuros. O diferencial da análise não é lidar somente com eventos passados do tomador de empréstimos. As decisões devem considerar, principalmente, o futuro desse mesmo tomador. "O risco situa-se no futuro; no passado, encontra-se apenas a história" (SCHRICKEL, 2000, p. 35-36).

34

Na concepção de Schrickel (2000), a análise de crédito consiste na habilidade de tomar uma decisão referente ao crédito, dentro de um cenário mutável e incerto, muitas vezes amparado por informações incompletas. Esta habilidade do analista de crédito depende da capacidade de analisar logicamente situações complexas e chegar a uma conclusão clara, prática e factível de ser utilizada. Cabe enfatizar que existem várias técnicas desenvolvidas para facilitar a equação de crédito e, cada vez mais, tem-se buscado formas de aperfeiçoá-las.

3.3.2 Conceito de risco de crédito

Quando o tema abordado é crédito, logo surgem observações sobre risco ou sobre incertezas nas operações. Para melhor exemplificar este conceito de risco de crédito, serão apresentadas, a seguir, algumas considerações pertinentes sobre este tema. Também serão apresentadas metodologias de classificação utilizadas na análise do risco de crédito. Assaf Neto (2010) afirma que o risco é um custo que está sempre presente nos negócios e, portanto, deve ser quantificado. De forma mais específica, o autor salienta que a ideia de risco está associada à probabilidade de que ocorra determinado resultado em relação ao retorno esperado. O conceito de risco está voltado para o futuro, revelando uma possibilidade de perda. O risco de crédito, para Santos (2012), compreende a troca de um valor presente por uma promessa de reembolso futuro, não necessariamente certo, em virtude do risco. Em síntese, quando uma instituição financeira concede crédito, está automaticamente comprando um risco com todas as vantagens e desvantagens envolvidas na transação. Devido ao fato de envolver uma expectativa de retorno do patrimônio que foi cedido, Schrickel (2000) explana que todo crédito está vinculado, de alguma forma, ao risco da perda do valor envolvido. Para Silva (2008, p. 56), em finanças, o conceito de risco e o conceito de incerteza são utilizados de formas diferentes, a saber:

(a) Risco: existe quando o tomador de decisões pode embasar-se em probabilidades objetivas para estimar diferentes resultados, de modo que sua expectativa se baseia em dados históricos e, portanto, a decisão é tomada a partir de estimativas julgadas aceitáveis pelo tomador de decisão. (b) Incerteza: ocorre quando o tomador não dispõe de dados históricos acerca de um fato, o que poderá exigir que o tomador de decisões faça uma distribuição probabilística subjetiva, isto é, baseado em sua sensibilidade pessoal.

35

De acordo com Assaf Neto (2010), toda vez que se possa quantificar a incerteza por meio de uma distribuição de probabilidades dos diversos resultados previstos, diz-se que está sendo tomada uma decisão sob situação de risco. Neste sentido, o risco pode ser interpretado como a capacidade de se mensurar a incerteza de uma decisão, devido ao conhecimento das probabilidades associadas à ocorrência de determinados resultados. Assaf Neto (2010) enfatiza ainda que, na prática, o analista não toma decisões financeiras em ambiente de total certeza. E por estarem essas decisões essencialmente direcionadas para o futuro, é fundamental que se introduza a variável incerteza, como um dos aspectos mais significativos na análise. Schrickel (2000) comenta que o risco sempre estará presente em qualquer empréstimo, ou seja, não existindo empréstimo sem risco. Contudo, o autor afirma que este risco deve ser compatível com o negócio da empresa e com a sua receita mínima esperada. A esse respeito, Silva (2002, p. 21) destaca que:

Considerando que risco indica a probabilidade de perda, a concessão de limite de crédito é realizada em valor inversamente proporcional ao risco oferecido, ou seja, quanto maior o risco menor o limite, prática que reduz a concentração de crédito em clientes de risco elevado. Esse limite também é definido de tal forma que haja uma pulverização dos recursos aplicados entre os clientes e, consequentemente, a pulverização do risco.

É normal, nas operações de empréstimo, associar um preço remuneratório, que será pago pelo tomador do empréstimo ao credor. Este preço é o juro ou a remuneração do dinheiro, que compensa a possível perda ou a deterioração da parcela do patrimônio cedido. Quando esse preço é expresso em forma percentual, tem-se a taxa de juros, também conhecida como taxa de risco (SCHRICKEL, 2000). Assaf Neto (2010) apresenta dois tipos de risco: o risco específico e o risco geral. O risco específico está relacionado à projeção de vendas, aos concorrentes e à tecnologia da própria empresa e é de interesse especificamente da empresa. Já o risco não específico é entendido como um risco do mercado, atingindo uma grande quantidade de empresas com diferentes intensidades, atuando sobre todo o mercado e influenciando o risco de todas as empresas. Seguindo esta mesma linha, Santos (2012) explica que o risco de inadimplência pode ser determinado tanto por fatores internos como por fatores externos. Os fatores internos de risco são: inexperiência dos administradores de crédito, controles inadequados, concentração de crédito em clientes de alto risco, falta de modelagem estatística e política estratégica de

36

crédito inadequada. Segundo o mesmo autor, estes fatores podem ser controlados, dependendo do nível de formação e de experiência dos analistas de crédito. Os fatores externos de risco são de natureza macroeconômica, sendo estes eventos que afetam o sistema econômico da organização e não são controláveis. Alguns exemplos externos que podem influenciar risco de inadimplência são: ações do governo, desemprego, inflação, conjuntura econômica e recessão (SANTOS, 2012). O risco expressa a probabilidade de que ocorra uma perda na operação de crédito e é influenciado por diversos fatores, tanto internos quanto externos à organização. E pode vir a influenciar os resultados analisados neste estudo, contribuindo para descartar a incerteza de que o tomador de crédito não irá cumprir o pagamento através do cálculo do risco referente àquela operação.

3.3.3 Análise de risco de crédito

Nos últimos tempos, os métodos de previsão para risco de crédito têm ganhado bastante repercussão. A classificação dos riscos de crédito tem constituído uma ferramenta fundamental na concessão de crédito. Neste contexto, várias instituições financeiras têm buscado por estas ferramentas. Segundo Silva (2008, p. 56), “o risco de crédito é a probabilidade de que o recebimento não ocorra, ou seja, é igual a 1 (um), menos a probabilidade de recebimento”. Ainda segundo o autor, os riscos de crédito de um banco (bank credit risk) são instrumentos de grande ajuda para o analista de risco de crédito, na redução das perdas decorrentes de erros. Estes podem ser classificados em quatro grupos: risco do cliente ou risco intrínseco (intrinsic risk); risco da operação (transaction risk); risco de concentração (concentration risk); risco da administração do crédito (credit management risk). Schrickel (2000, p. 25-26) afirma que:

O principal objetivo da análise de crédito numa instituição financeira (como para qualquer emprestador) é o de identificar os riscos nas situações de empréstimo, evidenciar conclusões quanto à capacidade de pagamento do tomador, e fazer recomendações relativas à melhor estruturação e tipo de empréstimo a conceder, à luz das necessidades financeiras do solicitante, dos riscos, identificando e mantendo, adicionalmente, sob perspectiva, a maximização dos resultados da instituição.

37

Silva (2008), baseado na Resolução nº 2.682, de 21-12-1999, do Banco Central do Brasil, apresenta uma escala que vai de AA até H. Esta tem por finalidade classificar o risco de crédito através da ordenação da qualidade de cada cliente, referente à quantidade de dias de atraso e necessidade de provisão para cada tipo de classificação. Essa classificação é construída com base na qualidade dos devedores, tipo, destinação e valor da operação. Silva (2008) esclarece que esta tem por finalidade funcionar como uma central de risco e auxiliar na decisão do crédito. A classe AA é a que representa o menor risco, para a qual não é necessário provisão de inadimplência (sem atraso nos pagamentos). No outro extremo, a classe H apresenta uma necessidade de provisão de 100% das suas operações. Esta relação pode ser visualizada na Tabela 1.

Tabela 1 – Classificação do nível de risco. Dias de atraso Provisionamento Classe de risco no pagamento (perdas prováveis) 0 AA 0,0% 1 a 14 A 0,5% 15 a 30 B 1,0% 31 a 60 C 3,0% 61 a 90 D 10% 91 a 120 E 30% 121 a 150 F 50% 151 a 180 G 70% 181 ou + H 100% Fontes: Adaptado de Silva (2008, p. 57-58) – Resolução nº 2.682/99.

Como menciona Silva (2008), esta classificação de risco é uma das várias ferramentas que podem ser implementadas na análise de crédito pelos administradores na tomada de decisões. Santos (2012, p. 74) enfatiza que “o beneficio da implementação de escalas similares à do Banco Central é que possibilita aos credores adotar preços e cobrar juros compatíveis com o efetivo risco de cada cliente”.

3.3.3.1 Cs do Crédito

Para a análise de crédito, é possível utilizar duas técnicas distintas: a análise subjetiva (julgamento humano) e a análise objetiva (procedimentos estatísticos). Segundo Santos (2012), para a análise subjetiva da capacidade de pagamento dos clientes são necessárias as informações tradicionalmente conhecidas como os 5 Cs do Crédito: caráter, capacidade, capital, colateral e condições.

38

De acordo com Schrickel (2000), tendo como princípio a confiança, a concessão de crédito é baseada em dois fatores fundamentais. O primeiro é a vontade do tomador de quitar sua dívida de acordo com o contrato estabelecido. E o segundo é a habilidade do tomador de assim fazê-lo. Afinal, de nada adiantará uma análise de balanços se não estiverem presentes estes dois fatores. Santos (2012) apresenta um resumo dos 5 Cs do crédito, que contribui para uma melhor compreensão desta metodologia (FIGURA 4).

Os 5 Cs do Crédito Caráter

Idoneidade do cliente no pagamento de débitos (intenção de pagar)

Capacidade

Habilidade do cliente na conversão de seus ativos em renda ou receita

Capital

Situação econômica, financeira e patrimonial para saldar os débitos

Colateral

Situação patrimonial (capacidade de oferecer garantias / bens)

Condições

Impacto de fatores externos sobre a fonte primária de pagamento

Figura 4: Resumo dos 5 Cs do Crédito. Fonte: Adaptado de Santos (2012, p. 40).

Devido à importância do tema para o crédito, serão demonstradas mais características dos 5 Cs do crédito: caráter, capacidade, capital, colateral e condições. •

Caráter

Schrickel (2000) defende que o caráter é o critério mais importante e crítico da concessão de crédito, não importando nem mesmo qual o valor da transação. Para sua análise, é feita uma investigação sobre os antecedentes do cliente, através da ficha cadastral, visando descobrir sua capacidade de pagamento. Apesar de a ficha cadastral trazer valiosas informações, ela não permite avaliar, subjetivamente, a intenção do cliente em quitar seus débitos. Silva (2008, p. 60) define caráter como:

O caráter refere-se à intenção do devedor (ou mesmo do garantidor) de cumprir a promessa de pagamento. [...] Cabe enfatizar, entretanto, que um indivíduo ou uma empresa pode atrasar um pagamento, ou mesmo deixar de pagar, em razão de não dispor de recursos, o que não é decorrência necessariamente de seu caráter. Dessa forma, a identificação do conjunto de boas ou más qualidades de um indivíduo em face do hábito de pagar suas contas é tarefa difícil.

39

O autor afirma, ainda, que o fator tempo pode demonstrar o quanto o caráter pode ser mutável. De qualquer maneira, os dados referentes ao passado do tomador podem ser instrumentos úteis para a decisão de concessão de crédito (SILVA, 2008). Santos (2012) enfatiza que, para a análise do “C” caráter, é indispensável utilizar das informações históricas de crédito do tomador (cliente), que demonstrem a intenção e pontualidade de pagamento de suas dívidas. A idoneidade financeira do cliente é de fundamental importância, pois avalia se existem informações desabonadoras dos clientes, que sejam importantes para a instituição financeira, de acordo com suas políticas de crédito. Schrickel (2000, p. 49) ressalta que “o Caráter não se restringe apenas ao tomador específico [...]. Ele, em realidade, é um conceito que transcende ao indivíduo, alcançando todo o extrato social e econômico do qual ele faz parte (grupos sociais, regiões, nações)”. •

Capacidade

Schrickel (2000) apresenta uma área cinzenta entre o “C” de Capacidade e de Caráter, onde estes se confundem em certos aspectos. Isto ocorre porque o tomador pode ser de todo honesto, isto é, possui a inquestionável vontade (caráter) de cumprir suas obrigações. Entretanto, não tem a habilidade (capacidade) de fazê-lo de forma satisfatória, ou seja, se o tomador for incapaz de pagar, a vontade perde todo seu valor.

Se o indivíduo revela Capacidade para administrar seu negócio, de tal sorte a fazê-lo prosperar e ter sucesso, ele já terá demonstrando (por que não?) uma Capacidade em saldar compromissos. Tal ocorre não somente com relação aos negócios, alcançando também suas finanças pessoais. [...] também, e sem dúvida, uma valiosa fonte de informações para a construção do conceito de qual seja sua Capacidade de Crédito. (SCHRICKEL, 2000, p. 51).

Para Silva (2008), a capacidade refere-se à capacidade administrativa e não há capacidade de pagamento de contas. Para o autor, capacidade deve estar relacionada ao fato de a empresa ser competitiva e poder assim gerar caixa para cumprir com suas obrigações. A capacidade, para Santos (2012), compreende a avaliação subjetiva do analista quanto à habilidade do tomador no gerenciamento de seus negócios e sua efetiva conversão em receita. Em geral, a renda é denominação de fonte primária de pagamento pelos analistas, sendo a principal referência da compatibilidade do empréstimo adquirido com a real capacidade financeira do tomador.

40



Capital

Silva (2008) explana que o capital compreende investigar a situação econômicofinanceira do tomador, no que diz respeito aos bens deste, que poderão vir a ser utilizados para quitar seus débitos. Entretanto, o autor afirma que só por meio de uma análise financeira meticulosa é possível gerar um fator que seja relevante para a tomada de decisão de crédito. A esse respeito, Santos (2012, p. 41) salienta que:

O capital é medido pela situação financeira do cliente, levando-se em consideração a composição (quantitativa e qualitativa) dos recursos, onde são aplicados e como são financiados. As fontes usuais para avaliação do capital de empresas e pessoas físicas são os Demonstrativos Contábeis e a Declaração do Imposto de Renda, respectivamente.

Schrickel (2000) salienta que, o Balanço Patrimonial da empresa é um importante indicador no conjunto das decisões de crédito e observa que um índice extraído deste, por si só, talvez não diga nada. Entretanto, o autor observa que uma análise mais minuciosa sobre o que realmente existe por trás de cada indicador pode trazer várias conclusões valiosas para o processo de crédito. •

Colateral

De acordo com Santos (2012), o “C” Colateral está associado à análise da riqueza patrimonial (bens móveis e imóveis) e suas aplicações financeiras. No caso do tomador vir a perder sua fonte primária de pagamento para o débito, o colateral pode ser utilizado como “garantia acessória”, isto é, uma garantia secundária que protegerá os credores de situações adversas. Silva (2008, p. 77) explica que:

O colateral refere-se à capacidade do cliente em oferecer garantias complementares. A garantia é uma espécie de segurança adicional e, em alguns casos, a concessão do crédito precisará dela para compensar as fraquezas decorrentes de outros fatores de risco. Uma empresa com excelente classificação de crédito, provavelmente, não estará disposta a oferecer garantias em operações de curto prazo, podendo ocorrer o contrário, ou seja, a empresa solicitar o cadastro das demonstrações financeiras do banco para avaliar se o mesmo é sólido o suficiente para merecer suas aplicações.

De acordo com Schrickel (2000), colateral deve ser algo tangível, uma garantia, podendo ser interpretado como uma espécie de “pronto-socorro” para o credor. Em uma

41

solicitação de crédito, o “C” colateral tem a função de contrabalancear e atenuar possíveis impactos negativos que possam ocorrer devido ao enfraquecimento de um dos três elementos: capacidade, capital e condições. Este enfraquecimento implica maior risco e o colateral tem função de compensar esta elevação do risco. O colateral deve ser evitado para compensar qualquer ponto fraco que surja dentro do critério caráter, porque, quando existe falta de honestidade, o crédito incluirá riscos que não devem ser assumidos pelo credor (SCHRICKEL, 2000). Silva (2008) ainda ressalta que, mesmo que a empresa mereça uma excelente classificação de risco de crédito, é normal que no financiamento de longo prazo de um projeto, o credor solicite garantias, dado a incerteza em relação ao futuro. Entretanto, estas garantias, por si só, não justificariam o acesso ao empréstimo, se a classificação de crédito da empresa for muito ruim. •

Condições

O “C” condições, para Schrickel (2000), refere-se ao cenário micro e macroeconômico em que o tomador está inserido. Deve-se levar em conta tanto o contexto atual quanto as perspectivas futuras da economia. Neste sentido, os credores devem ter mais cautela em momentos de crise e, em momentos de recuperação econômica (quando o negócio do tomador estiver em constante ascensão), podem ser mais liberais. As condições englobam fatores externos ao tomador e que não estão sob o seu controle. A estes fatores, o autor trata como forças do macroambiente, que podem se manifestar tanto de forma positiva (representando oportunidades) quanto de modo negativo (trazendo ameaças). Alguns destes fatores, que podem influenciar, são: os planos econômicos, abertura da economia, política cambial e todo tipo de intervenções do governo na economia (SILVA, 2008). Santos (2012) defende que este “C” é extremamente importante, pois está associado à avaliação do impacto de fatores externos, sobre a fonte primária de pagamento, tais como aumento das taxas de inflação, taxas de juros e paridade cambial; crises em países que mantenham relacionamentos diretos com o país de origem da transação. O “C” condição pode determinar o risco total de crédito, uma vez que, dependendo da gravidade dos fatores externos, os recebimentos dos valores concedidos podem se tornar difíceis de serem recuperados.

42

3.3.3.2 Modelos de análise de risco de crédito

Ao contrário da técnica de análise subjetiva (julgamento humano), os modelos de análise de risco de crédito são modelos de análise objetiva. Ou seja, são procedimentos estatísticos, que buscam, por meio de dados históricos, quantificar a probabilidade futura de um cliente (tomador de crédito) ter ou não condições de saldar suas dívidas perante a instituição credora. As técnicas estatísticas multivariadas utilizadas na concessão de crédito têm sido consideradas como ferramentas bastante úteis para o reconhecimento da inadimplência na administração do crédito. Silva (2008) salienta que, na criação de um modelo de previsão de risco de crédito, é importante saber identificar qual dentre as técnicas estatísticas será mais eficiente para a modelagem dos dados, de forma a conseguir uma melhor previsão para a inadimplência. Santos (2012, p. 192) elucida que a abordagem estatística, baseada na pontuação, surgiu como um dos métodos mais importantes de suporte à tomada de decisão, para grandes volumes de propostas de crédito, tanto para crédito de pessoas físicas como jurídicas. O autor ainda complementa que: A pontuação de crédito é um instrumento estatístico desenvolvido analista avalie a probabilidade de que determinado cliente venha inadimplente no futuro. Trata-se de um modelo de avaliação de crédito uma fórmula estatística desenvolvida com base em dados cadastrais, patrimoniais e de idoneidade dos clientes.

para que o a tornar-se baseado em financeiros,

Silva (2008) enfatiza que a inadimplência (risco de crédito) pode ser definida como a possibilidade do não cumprimento das obrigações do tomador para com o credor. Sendo assim, os modelos de previsão têm por objetivo estipular o risco de cada tomador com base nos seus dados cadastrais, utilizando-se de técnicas estatísticas multivariadas para gerar um sistema de pontuação, que possibilite identificar a inadimplência do cliente. Segundo Pereira et al. (2007), a partir dos trabalhos pioneiros de Beaver (1966) e Altman (1968), vem sendo crescente o número de pesquisadores que se interessam por esta temática. Este interesse tem levado à utilização de diferentes métodos de análise, tais como: análise discriminante, logit, probit, redes neurais, indução de regras e árvores de decisão, algoritmos genéticos, conjuntos aproximados, entre outros modelos. O autor afirma ainda que

43

os pesquisadores, cada vez mais, têm procurado técnicas e ferramentas alternativas para incorporar, nos modelos elaborados, maior utilidade e precisão. A utilização de modelos para a análise do risco de crédito apresenta vantagens e limitações. Segundo Silva (2008), devem-se tomar alguns cuidados, uma vez que é extremamente difícil cercar todos os possíveis fatores que influem no perfil dos tomadores de crédito. Estas vantagens e limitações, no uso de modelos, constituem-se em:

VANTAGENS DOS MODELOS

 Modelo desenvolvido a partir de amostra com confirmação empírica de sua validade atribui certa segurança na decisão.  A utilização de recursos estatísticos elimina a subjetividade de julgamento que varia de analista para analista.  Uma agilidade valiosa na análise, o que gera tempo para outros assuntos relevantes.

LIMITAÇÕES DOS MODELOS  Um modelo criado em certa conjectura econômica pode não ser adequado em outra. Com o decorrer do tempo, os pesos das variáveis podem sofrer alterações.  Não devem ser entendidos como verdade única, pois mesmo com acertos de 95% (o que representar excelente desempenho), os 5% de erro podem ser fatais (dependendo da situação).

 Respostas ágeis quanto à solidez de seus clientes.

 Impossibilidade de se utilizar um modelo único, devido a aspectos geográficos e referentes ao setor de atividades.

 A confirmação de que algumas variáveis tidas como importantes não são necessariamente significativas na avaliação do crédito é altamente relevante.

 Possibilidade de uso inadequado do modelo por pessoas inexperientes, devido à falta de conhecimento para colher dados de novos clientes da mesma forma da amostra.  Falta de coerência entre os modelos e os fatores estratégicos da instituição.

Quadro 3: Vantagens e limitações dos modelos. Fonte: Adaptado a partir do texto de Silva (2008, p. 288-289).

Silva (2008) ressalta que o uso de métodos quantitativos tem sido muito divulgado, o que tem levado muitos bancos a uma corrida, em busca dessas técnicas para avaliação do risco de crédito dos clientes, devido à sua contribuição para o processo de análise. Entretanto, esses métodos de previsão não podem ser interpretados como receitas milagrosas capazes de resolver todos os problemas advindos do risco de crédito contido nas operações. O uso de modelos de pontuação contribui muito para o crédito. Contudo, utilizar esses métodos não elimina a necessidade que as instituições financeiras tenham políticas e estratégicas bem definidas e que seus profissionais estejam preparados para uma boa análise de crédito. Neste sentido, os modelos devem ser interpretados como um instrumental complementar para o analista (SILVA, 2008).

44

3.3.4 Histórico e desenvolvimento da análise de crédito

Neste tópico, serão apresentados alguns trabalhos realizados acerca da análise de crédito através de métodos quantitativos, desenvolvidos por diversos pesquisadores, tais como Altman (1968); Kanitz (1974); Elizabetsky (1976); Matias (1978); Altman, Baidya e Dias (1979) e Silva (1982). Também serão feitas considerações sobre os estudos realizados por Sanvicente e Minardi (1998) e por Carvalho (2004), por introduzirem na análise de risco de crédito no Brasil, algumas variáveis do modelo dinâmico de análise financeira. Em sua maioria, com exceção do trabalho de Altman (1968), focaram-se em trabalhos realizados no Brasil, com intuito, de compreender a evolução deste tipo de pesquisa no País.

3.3.4.1 O modelo de Altman (1968)

Tentando superar as deficiências da análise financeira baseada em apenas um índice, Edward Altman, em 1968, utilizou a análise discriminante múltipla, com intuito de separar empresas solventes de empresas insolventes. Para este estudo, Altman utilizou uma amostra inicial de 66 empresas americanas, sendo 33 solventes e 33 insolventes, no período de 1946 a 1965. A amostra de empresas solventes utilizadas foi emparelhada com a amostra de empresas insolventes e estratificada por tamanho e indústria. Contudo, o autor reconhece que este grupo não é completamente homogêneo, devido a diferenças entre setores e tamanho, e afirma que uma cuidadosa seleção das empresas falidas não foi tentada neste estudo. Todavia, todas as variáveis utilizadas, com exceção de X5, apresentaram um nível de significância satisfatório. Entretanto, quando se verificou a contribuição individual de cada variável para a função discriminante, observou-se que a variável X3 foi mais importante, seguida pela X5. O modelo mostrou-se eficaz na classificação de 95% das empresas, quando aplicado um ano antes da insolvência, e 72% de acerto, quando utilizado dois anos antes do evento da insolvência. O modelo criado por Altman, em 1968, é apresentada a seguir: 𝑍 = 0,012𝑋1 + 0,014𝑋2 + 0,033𝑋3 + 0,006𝑋4 + 0,0999𝑋5

(10)

45

Onde: 𝑋1 =

𝐴𝑡𝑖𝑣𝑜 𝐶𝑖𝑟𝑐𝑢𝑙𝑎𝑛𝑡𝑒 − 𝑃𝑎𝑠𝑠𝑖𝑣𝑜 𝐶𝑖𝑟𝑐𝑢𝑙𝑎𝑛𝑡𝑒 𝐴𝑡𝑖𝑣𝑜 𝑇𝑜𝑡𝑎𝑙

𝑋3 =

𝑋2 =

𝐿𝑢𝑐𝑟𝑜𝑠 𝑅𝑒𝑡𝑖𝑑𝑜𝑠 𝐴𝑡𝑖𝑣𝑜 𝑇𝑜𝑡𝑎𝑙

𝐿𝑢𝑐𝑟𝑜𝑠 𝐴𝑛𝑡𝑒𝑠 𝑑𝑜𝑠 𝐽𝑢𝑟𝑜𝑠 𝑒 𝐼𝑘𝑝𝑜𝑠𝑡𝑜𝑠 𝐴𝑡𝑖𝑣𝑜 𝑇𝑜𝑡𝑎𝑙

𝑋4 =

𝑉𝑎𝑙𝑜𝑟 𝑑𝑒 𝑀𝑒𝑟𝑐𝑎𝑑𝑜 𝑑𝑜 𝐸𝑞𝑢𝑖𝑡𝑦 𝐸𝑥𝑖𝑔í𝑣𝑒𝑙 𝑇𝑜𝑡𝑎𝑙 𝑉𝑒𝑛𝑑𝑎𝑠

𝑋5 = 𝐴𝑡𝑖𝑣𝑜 𝑇𝑜𝑡𝑎𝑙

(11) (12) (13) (14) (15)

Silva (2008) observa que, no modelo de Altman, quatro das cinco variáveis utilizadas se referem à relação de contas ou grupos de contas com o ativo total e que apenas a variável X4 apresenta exigível total no denominador. O autor ainda salienta que esta seleção de variáveis não é frequente por Altman, que vem desenvolvendo novos estudos e utilizando outras variáveis.

3.3.4.2 O modelo de Kanitz (1974)

Ao que se sabe, o pioneiro neste tipo de pesquisa no Brasil é o professor Stephen Charles Kanitz, que por meio de seus estudos na década de setenta, deu origem ao artigo denominado “Como prever falências de empresas”, publicado pela Revista Exame no ano de 1974. Este estudo, no entanto, logo se transformaria em um livro lançado por Kanitz em 1978, denominado “Como prever falências”. Kanitz (1978, p. 2) afirma que “os primeiros sintomas de uma insolvência surgem muito antes que ela se concretize”. O autor ainda explana que a insolvência é um processo que tem começo, meio e fim. Por isto, antes da falência deve haver nos balanços da empresa alguns indícios do que está por vir, contudo é preciso localizá-los. Através da análise discriminante e regressão múltipla, Kanitz (1978) ponderou vários índices para obter uma medida única da situação econômica e financeira das empresas. Esta medida foi denominada fator de insolvência e a equação encontrada por Kanitz, para gerar este fator, pode ser mais bem observada a seguir:

46

Onde:

𝐹𝐼 = 0,05𝑋1 + 1,65𝑋2 + 3,55𝑋3 − 1,06𝑋4 − 0,33𝑋5 𝐿𝑢𝑐𝑟𝑜 𝐿í𝑞𝑢𝑖𝑑𝑜

(17)

𝐴𝑡𝑖𝑣𝑜 𝐶𝑖𝑟𝑐𝑢𝑙𝑎𝑛𝑡𝑒 + 𝑅𝑒𝑎𝑙𝑖𝑧á𝑣𝑒𝑙 𝑎 𝐿𝑜𝑛𝑔𝑜 𝑃𝑟𝑎𝑧𝑜

(18)

𝑋1 = 𝑃𝑎𝑡𝑟𝑖𝑘ô𝑛𝑖𝑜 𝐿í𝑞𝑢𝑖𝑑𝑜

𝑋2 = 𝑆𝑜𝑘𝑎 𝑑𝑜 𝑃𝑎𝑠𝑠𝑖𝑣𝑜 𝐶𝑖𝑟𝑐𝑢𝑙𝑎𝑛𝑡𝑒 𝑒 𝑜 𝐸𝑥𝑖𝑔í𝑣𝑒𝑙 𝑎 𝐿𝑜𝑛𝑔𝑜 𝑃𝑟𝑎𝑧𝑜 𝑋3 =

𝑋5 =

(16)

𝐴𝑡𝑖𝑣𝑜 𝐶𝑖𝑟𝑐𝑢𝑙𝑎𝑛𝑡𝑒 − 𝐸𝑠𝑡𝑜𝑞𝑢𝑒𝑠 𝐸𝑥𝑖𝑔í𝑣𝑒𝑙 𝑎 𝐶𝑢𝑟𝑡𝑜 𝑃𝑟𝑎𝑧𝑜 𝐴𝑡𝑖𝑣𝑜 𝐶𝑖𝑟𝑐𝑢𝑙𝑎𝑛𝑡𝑒

𝑋4 = 𝑃𝑎𝑠𝑠𝑖𝑣𝑜 𝐶𝑖𝑟𝑐𝑢𝑙𝑎𝑛𝑡𝑒

𝐸𝑥𝑖𝑔í𝑣𝑒𝑙 à 𝐶𝑢𝑟𝑡𝑜 𝑃𝑟𝑎𝑧𝑜 + 𝐸𝑥𝑖𝑔í𝑣𝑒𝑙 𝑎 𝐿𝑜𝑛𝑔𝑜 𝑃𝑟𝑎𝑧𝑜 𝑃𝑎𝑡𝑟𝑖𝑘ô𝑛𝑖𝑜 𝐿í𝑞𝑢𝑖𝑑𝑜

(19) (20) (21)

O fator de insolvência é um indicador daquilo que pode vir a acontecer em um futuro próximo, caso a gestão não venha intervir na direção em que a empresa está seguindo. Depois de obter-se o fator de insolvência, para facilitar a avaliação de uma empresa, foi elaborado o termômetro da insolvência, que classifica as empresas que apresentam variações abaixo e acima de zero. Os valores abaixo de 0 (zero) indicam que a empresa poderá vir à falência e valores acima de 0 (zero) indicam que são menores as possibilidades de esta vir a falir. Evidentemente, quanto menor esse valor, mais próxima da falência estará a empresa, e quanto maior for esse valor, menor será a possibilidade de vir a falir. Quanto à área do termômetro de insolvência de Kanitz, compreendida entre 0 e -3, é denominado por ele como "área de penumbra", ou seja, é uma área que evidencia estatisticamente que o fator de insolvência não é suficiente para determinar a situação da empresa. Estas considerações podem ser mais bem observadas na Figura 5.

SOLVENTE

PENUMBRA

INSOLVENTE

Figura 5: Termômetro da insolvência. Fonte: Adaptado de Kanitz (1978, p. 13).

47

Kanitz (1978, p. 14) enfatiza ainda que:

Mas, como observamos no início, o fator de insolvência não é apenas um profeta de catástrofes empresariais. Em períodos de retração de crédito, por exemplo, ele permite ordenar empresas segundo o maior ou menor risco que ofereçam e, assim, conceder créditos com mais segurança.

Kanitz (1980), cinco anos após a publicação do seu artigo "Como prever falências", afirmou que o trabalho teve uma repercussão que ultrapassou as expectativas. Mas, ao contrário do que o autor esperava, dezenas de empresas e bancos utilizaram-no de forma indiscriminada, aplicando-o sobre os seus próprios resultados, sem ter em consideração que o modelo era claramente destinado a setores específicos (indústria e comércio). O autor ainda observa que o importante é saber que não existe um modelo genérico, nacional ou intersetorial, aplicável a qualquer tipo de problema. Já em “Como prever falências - 40 anos depois”, Kanitz (2012) elucidou que o conceito de credit-scoring lançado por ele, no Brasil, em 1974, enfrentou diversos problemas culturais para ser absorvido pelas empresas credoras no país. Para espanto do autor, o modelo incompleto (modelo com apenas 5 variáveis) que ele apresentou, acabou sendo usado por uma série de instituições financeiras, sem a mínima preocupação de se aprofundarem na metodologia que o gerou.

3.3.4.3 O modelo de Elizabetsky (1976)

Roberto Elizabetsky (1976) apud Silva (2008) desenvolveu, em 1976, um estudo intitulado “Um modelo matemático para decisões de crédito no banco comercial”. Neste trabalho de conclusão do curso de Engenharia de Produção, apresentado para a Escola Politécnica da Universidade de São Paulo, o autor desenvolveu, através da análise discriminante, um indicador de falência para um grupo de 373 empresas, sendo 99 más e 274 boas. Elizabetsky (1976) apud Silva (2008) já demonstrava uma preocupação com o perfil da amostragem, sendo que as empresas selecionadas, do ramo de confecções (artigos para vestuário), foram escolhidas por este setor apresentar maior problema de liquidez naquela época.

48

Elizabetsky (1976, p. 15) apud Mário (2002, p. 85-86) afirma que o julgamento humano não deve ser excluído na tomada de decisão, mas o “sistema de avaliação de crédito pode ser grandemente beneficiado pelo uso de modelos matemáticos que possibilitem uma melhor quantificação dos dados existentes (grifo do autor)”. Contudo, os modelos matemáticos devem ser encarados como uma ferramenta para auxiliar o analista. Segundo Elizabetsky (1976) apud Mário (2002), a análise de crédito apresenta três restrições: a) não possui um critério absoluto; b) a análise das informações é feita em sequência e não simultaneamente e c) o sistema tradicional de análise é lento e oneroso. Essas restrições dão base para a utilização de modelos matemáticos na avaliação e classificação de risco de crédito. Podem-se alcançar vários objetivos pelo uso de modelos matemáticos, e, para Elizabetsky (1976) apud Mário (2002), alguns destes objetivos são: acompanhamento dos créditos concedidos para melhorar o processo de decisão, redução de custos na avaliação e de tempo, controle das carteiras de crédito, melhor aproveitamento da experiência e do tempo dos analistas, flexibilização frente a mudanças econômicas, captação de bons clientes e padronização do processo de avaliação e concessão de crédito. Elizabetsky (1976, p.75) apud Mário (2002, p. 86) apresenta o ferramental utilizado pelo Banco Comercial, na avaliação de clientes (análise de balanços). Denominando esta como “análise tradicional”, em comparação com a sua proposta de utilizar recursos matemáticos (estatísticos), que seria “um método sofisticado de análise [...]”. No primeiro item, Elizabetsky (1976, p. 21) apud Mário (2002, p. 86-87) discorre sobre os indicadores financeiros e os agrupa em quatro categorias distintas: liquidez, estrutura, rentabilidade e atividade. Enfatiza que “um dos grandes problemas encontrados ao se analisar a empresa através de índices é a contradição dos resultados obtidos pelo uso dos diversos tipos de índices”. Para Elizabetsky (1976) apud Mário (2002), essa contradição pode demonstrar a realidade em que se encontra a empresa, ou inviabilizar conclusões objetivas, levando a análise para a subjetividade. O autor finaliza esse item apresentando modelos de planilhas de padronização, denominadas por ele como “planilhas de reclassificação” e a sua utilização em comparações com os indicadores padrões do ramo de atividade de cada uma das empresas analisadas. No segundo item, Elizabetsky (1976) apud Mário (2002) trata da análise da Demonstração do Fluxo de Fundos, que é utilizada pelo Banco Comercial para compreender a alocação do lucro gerado pelas operações, da destinação dos recursos provenientes de

49

empréstimos e do que alterou a posição de liquidez da empresa. Busca-se avaliar o Capital Circulante Líquido da instituição e suas modificações, causadas pelos recursos recebidos e aplicados, de característica de longo prazo. Também apresenta as características dos modelos matemáticos para fins de concessão de créditos e a ferramenta estatística da Análise Discriminante. Elizabetsky (1976, p. 38) apud Mário (2002, p. 89) expõe ainda que “[...] é impossível distinguir, à primeira vista, os empréstimos que se desenrolarão de modo normal daqueles cuja cobrança será dificultada”. O autor então propõe a utilização de procedimentos (grifo do autor) que identifiquem e eliminem o maior número possível de riscos indesejáveis, deixando apenas os “bons riscos”. Elizabetsky (1976) apud Silva (2008) iniciou o trabalho com 60 índices, usando um processo de correlação entre alguns grupos de índices, com intuito de reduzir a quantidade de variáveis. O autor acabou encontrando um grupo de 38 índices, que foram utilizados para a análise discriminante. A redução do número de variáveis da equação ainda foi tentada, em função das dificuldades computacionais encontradas para a manipulação de 28 variáveis. Entretanto, segundo Elizabetsky (1976, p.174) apud Mário (2002, p. 98), “a precisão do modelo cai sensivelmente com essa redução”, o que pode ser observado na Tabela 2 a seguir.

Tabela 2 – Quantidade de índices que influenciam os resultados obtidos com cinquenta e quatro empresas. Acertos Com 5 variáveis Com 10 variáveis Com 15 variáveis Amostra Quantidade r2 = 0,2746 r2 = 0,4948 r2 = 0,5868 Quantidade % Quantidade % Quantidade % Empresas Boas 27 20 74,07 21 77,87 22 81,48 Empresas Más 27 17 62,96 23 85,19 24 88,89 SOMA 54 37 44 46 Fontes: Adaptado de Elizabetsky (1976, p. 174 e 178) apud Silva (2008, p. 269) – Elizabetsky (1976, p. 174 e 178) apud Mário (2002, p. 99).

Todavia, nos modelos encontrados por Elizabetsky (1976) apud Silva (2008), pode-se observar que os índices que compõem o modelo com 5 variáveis se repetem no modelo com 10 variáveis, assim como os índices do modelo com 10 variáveis se repete no modelo com 15 variáveis. Isto significa que, à medida que se aumentou a quantidade de variáveis, não foram encontradas novas combinações de índices com pesos significantes para excluir algum dos índices que estavam no modelo anterior.

50

Será apresentado aqui apenas o modelo com cinco variáveis. Os modelos com dez variáveis e com quinze variáveis podem ser encontrados no trabalho do autor ou no trabalho de Silva (2008, p. 270). Veja o Modelo:

Modelo com cinco variáveis:

Onde:

𝑌 = 1,93𝑋32 − 0,21𝑋33 + 1,02𝑋35 + 1,33𝑋36 − 1,13𝑋37 𝑋32 =

𝐿𝑢𝑐𝑟𝑜 𝐿í𝑞𝑢𝑖𝑑𝑜 𝑉𝑒𝑛𝑑𝑎𝑠 𝐷𝑖𝑠𝑝𝑜𝑛í𝑣𝑒𝑙

𝑋33 = 𝐴𝑡𝑖𝑣𝑜 𝑃𝑒𝑟𝑘𝑎𝑛𝑒𝑛𝑡𝑒 𝑋35 =

𝐶𝑜𝑛𝑡𝑎𝑠 𝑎 𝑅𝑒𝑐𝑒𝑏𝑒𝑟 𝐴𝑡𝑖𝑣𝑜 𝑇𝑜𝑡𝑎𝑙 𝐸𝑠𝑡𝑜𝑞𝑢𝑒𝑠

𝑋36 = 𝐴𝑡𝑖𝑣𝑜 𝑇𝑜𝑡𝑎𝑙

𝑋37 =

𝑃𝑎𝑠𝑠𝑖𝑣𝑜 𝐶𝑖𝑟𝑐𝑢𝑙𝑎𝑛𝑡𝑒 𝐴𝑡𝑖𝑣𝑜 𝑇𝑜𝑡𝑎𝑙

(22)

(23) (24) (25) (26) (27)

Ao término do trabalho, Elizabetsky (1976, p. 182) apud Mário (2002, p. 99) apresenta sua proposta para a utilização do fator de insolvência, como forma de delimitar os níveis de crédito dos participantes, ampliando esses níveis quando os clientes tivessem bons escores Z, podendo, assim, dinamizar a tomada de decisão e inserir uma nova variável: “a qualidade, em termos de situação econômico-financeira apresentada pelo cliente”.

3.3.4.4 O modelo de Matias (1978)

Alberto Borges Matias apresentou seu modelo, em 1978, em um trabalho de conclusão de curso (Monografia), intitulado ”Contribuição às técnicas de análise financeira: um modelo de concessão de crédito”, que foi apresentado ao Departamento de Administração da Universidade de São Paulo. O autor trabalhou com um grupo de 100 empresas de diversos ramos de atividade, sendo 50 solventes e 50 insolventes. A princípio, ele selecionou 40 variáveis para o estudo. Entretanto, a intenção de Matias (1978) era obter um modelo com base em 5 ou 6 variáveis de

51

melhor discriminação e não trabalhar com 40 variáveis, o que tornaria impraticável a elaboração e utilização do modelo. Matias (1978) observou que, ao utilizar 33 variáveis, era possível classificar corretamente 95 empresas da amostra, todavia existiam fases intermediárias com um número menor de variáveis que possuía melhor discriminação, ou seja, o acréscimo de variáveis não melhora muito o modelo. Por meio da técnica estatística de análise discriminante para o cálculo do risco e com informações sobre patrimônio líquido, ativo total, financiamentos bancários, ativo circulante, fornecedores, ativo e liquidez corrente, Matias (1978) desenvolveu o modelo que é apresentado a seguir: 𝑍 = 23,792𝑋1 − 8,260𝑋2 − 8,868𝑋3 − 0,764𝑋4 + 0,535𝑋5 + 9,912𝑋6

(28)

Onde:

𝑋2 =

𝑋1 =

𝑃𝑎𝑡𝑟𝑖𝑘ô𝑛𝑖𝑜 𝐿í𝑞𝑢𝑖𝑑𝑜 𝐴𝑡𝑖𝑣𝑜 𝑇𝑜𝑡𝑎𝑙

𝐹𝑖𝑛𝑎𝑛𝑐𝑖𝑎𝑘𝑒𝑛𝑡𝑜𝑠 𝑒 𝐸𝑘𝑝𝑟é𝑠𝑡𝑖𝑘𝑜𝑠 𝐵𝑎𝑛𝑐á𝑟𝑖𝑜𝑠 𝐴𝑡𝑖𝑣𝑜 𝐶𝑖𝑟𝑐𝑢𝑙𝑎𝑛𝑡𝑒

𝑋3 =

𝐹𝑜𝑟𝑛𝑒𝑐𝑒𝑑𝑜𝑟𝑒𝑠 𝐴𝑡𝑖𝑣𝑜 𝑇𝑜𝑡𝑎𝑙

𝐴𝑡𝑖𝑣𝑜 𝐶𝑖𝑟𝑐𝑢𝑙𝑎𝑛𝑡𝑒

𝑋4 = 𝑃𝑎𝑠𝑠𝑖𝑣𝑜 𝐶𝑖𝑟𝑐𝑢𝑙𝑎𝑛𝑡𝑒 𝑋5 =

𝐿𝑢𝑐𝑟𝑜 𝑂𝑝𝑒𝑟𝑎𝑐𝑖𝑜𝑛𝑎𝑙 𝐿𝑢𝑐𝑟𝑜 𝐵𝑟𝑢𝑡𝑜 𝐷𝑖𝑠𝑝𝑜𝑛í𝑣𝑒𝑙

𝑋6 = 𝐴𝑡𝑖𝑣𝑜 𝑇𝑜𝑡𝑎𝑙

(29) (30) (31) (32) (33) (34)

A função discriminante apresentou médias de 11,176 para empresas solventes e 0,321 para empresas insolventes, entretanto o desvio padrão se mostrou o mesmo nas duas amostras, ficando em 3,328. Das 50 empresas solventes, 44 obtiveram classificação correta, uma foi classificada incorretamente e cinco na região de dúvida. Já das 50 empresas insolventes, 45 foram classificadas corretamente, duas incorretamente e três na região de dúvida, apresentando acerto de 88% nas empresas solventes e 90% de acertos nas empresas insolventes.

52

3.3.4.5 O modelo de Altman, Baidya e Dias (1979)

A Revista de Administração de Empresas da Fundação Getúlio Vargas - Rio de Janeiro, na edição de janeiro/março de 1979, apresentava o trabalho desenvolvido pelo professor Edward I. Altman, em parceria com os professores Tara K. N. Baidya e Luiz Manoel Ribeiro Dias, da Pontifícia Universidade Católica do Rio de Janeiro. O procedimento de classificação baseou-se no modelo de previsão de insolvência desenvolvido por Edward I. Altman, nos EUA, em 1968. Altman, Baidya e Dias (1979) modificam então o presente modelo para compatibilizar com os padrões e as práticas utilizadas nas demonstrações financeiras brasileiras. A amostra contou com 23 empresas concordatárias ou liquidadas, que originavam dos seguintes setores: indústria de tecidos, mobiliário, celulose e papel, comércio varejista, plásticos, metalurgia e outros. Já para a amostra de empresas não concordatárias, reuniram-se dados de 200 empresas. Todavia, os autores buscaram escolher uma ou duas empresas do mesmo setor das concordatárias, isto é, empresas privadas nacionais de porte equivalente. Essas exigências e a limitação dos dados disponíveis reduziram a amostra das não concordatárias para 35 empresas. As variáveis X2 e X4 do modelo original de Altman (1968) foram modificadas para se adaptarem ao contexto brasileiro. O lucro retido, que é o numerador da variável X2, consiste nos lucros acumulados da empresa menos dividendos pagos (em dinheiro). Devido a diferentes critérios de apresentação das demonstrações financeiras no Brasil e ajustes à inflação, não existe um equivalente exato para lucros retidos. Os lucros retidos foram aproximados pela diferença entre patrimônio líquido e capital social. Com isso, X2 foi calculado da seguinte maneira:

𝑋2 =

𝑁ã𝑜 𝐸𝑥𝑖𝑔í𝑣𝑒𝑙 − 𝐶𝑎𝑝𝑖𝑡𝑎𝑙 𝐴𝑝𝑜𝑟𝑡𝑎𝑑𝑜 𝑝𝑒𝑙𝑜𝑠 𝐴𝑐𝑖𝑜𝑛𝑖𝑠𝑡𝑎𝑠 𝐴𝑡𝑖𝑣𝑜 𝑇𝑜𝑡𝑎𝑙

(35)

No caso da variável X4, uma vez que muitas firmas não possuem ações negociadas em bolsa, em muitos casos não havia dados para se estimar o valor de mercado da equity (número de ações emitidas vezes última cotação em bolsa), que era o numerador da variável X4 originalmente. Os autores utilizaram o valor contábil do patrimônio líquido, que, dividido pelo exigível total, resulta na nova variável X4, calculada a partir da seguinte expressão:

53

𝑋4 =

𝑃𝑎𝑡𝑟𝑖𝑘ô𝑛𝑖𝑜 𝐿í𝑞𝑢𝑖𝑑𝑜 𝐸𝑥𝑖𝑔í𝑣𝑒𝑙 𝑇𝑜𝑡𝑎𝑙

(36)

Com o resultado final, tem-se a identificação de dois modelos, ambos com quatro variáveis. Embora distintos, eles têm características muito semelhantes. Os modelos, obtidos foram: 𝑍1 = − 1,44 + 4,03𝑋2 + 2,25𝑋3 + 0,14𝑋4 + 0,42𝑋5 Onde:

𝑍2 = − 1,84 − 0,51𝑋1 + 6,32𝑋3 + 0,71𝑋4 + 0,53𝑋5 𝑋1 =

𝑋2 =

𝐴𝑡𝑖𝑣𝑜 𝐶𝑖𝑟𝑐𝑢𝑙𝑎𝑛𝑡𝑒 − 𝑃𝑎𝑠𝑠𝑖𝑣𝑜 𝐶𝑖𝑟𝑐𝑢𝑙𝑎𝑛𝑡𝑒 𝐴𝑡𝑖𝑣𝑜 𝑇𝑜𝑡𝑎𝑙

𝑁ã𝑜 𝐸𝑥𝑖𝑔í𝑣𝑒𝑙 − 𝐶𝑎𝑝𝑖𝑡𝑎𝑙 𝐴𝑝𝑜𝑟𝑡𝑎𝑑𝑜 𝑝𝑒𝑙𝑜𝑠 𝐴𝑐𝑖𝑜𝑛𝑖𝑠𝑡𝑎𝑠 𝐴𝑡𝑖𝑣𝑜 𝑇𝑜𝑡𝑎𝑙

𝑋3 =

𝐿𝑢𝑐𝑟𝑜𝑠 𝐴𝑛𝑡𝑒𝑠 𝑑𝑒 𝐽𝑢𝑟𝑜𝑠 𝑒 𝑑𝑒 𝐼𝑘𝑝𝑜𝑠𝑡𝑜𝑠 𝐴𝑡𝑖𝑣𝑜 𝑇𝑜𝑡𝑎𝑙

𝑋4 =

𝑃𝑎𝑡𝑟𝑖𝑘ô𝑛𝑖𝑜 𝐿í𝑞𝑢𝑖𝑑𝑜 𝐸𝑥𝑖𝑔í𝑣𝑒𝑙 𝑇𝑜𝑡𝑎𝑙 𝑉𝑒𝑛𝑑𝑎𝑠

𝑋5 = 𝐴𝑡𝑖𝑣𝑜 𝑇𝑜𝑡𝑎𝑙

(37) (38)

(39) (40) (41) (42) (43)

Altman, Baidya e Dias (1979) explanam que os resultados dos dois modelos encontrados são essencialmente idênticos no que diz respeito à precisão de classificação, exceto por uma ligeira superioridade do modelo Z1, quando aplicado no antepenúltimo e penúltimo ano, antes da constatação do problema. Todas as cinco variáveis apresentaram nível de significância de 1%. Entretanto, em uma análise stepwise 1 a variável X1 foi excluída, por não apresentar nenhum poder discriminante para o modelo (além de apresentar coeficiente com sinal contrário à intuição dos analistas). Os autores afirmam que um dos motivos é o de que algumas das firmas pesquisadas tiveram um crescimento muito rápido, sem os recursos necessários para suportálo, e por isto, a variável capital de giro não foi significante para o modelo. Contudo, o modelo com as quatro variáveis X2, X3, X4 e X5 mostrou-se significativo ao nível de 1%, comprovando que as médias dos valores dos grupos são resultantes de amostras de diferentes populações. O modelo classificou corretamente 88% das situações. 1

Stepwise ou “passo a passo” é um procedimento para a seleção de variáveis regressoras: após cada etapa de incorporação de uma variável, tem-se uma etapa em que uma das variáveis já selecionada pode ser descartada e assim sucessivamente. Este procedimento chega ao fim quando nenhuma variável é incluída ou descartada.

54

3.3.4.6 O modelo de Pereira (1982)

José Pereira da Silva apresentou sua Dissertação para Mestrado em Administração Financeira pela Fundação Getúlio Vargas de São Paulo, em 1982, intitulada: “Modelos para classificação de empresas com vistas à concessão de crédito”. O foco deste trabalho foi a modelagem matemática, utilizando-se da Análise Discriminante para classificar empresas quanto a sua solvência ou insolvência na análise de crédito (SILVA, 2008). Silva (1982) apud Mário (2002) utilizou-se de índices financeiros citados na literatura de finanças como na de análise de balanços, além de utilizar de sua própria sensibilidade. Num total, foram trabalhados 85 indicadores (índices) que foram separados por grupos: estrutura, liquidez e rentabilidade (fazendo-se ajustes quando necessário). Após definida a quantidade de índice dos modelos, foram testadas todas as combinações possíveis entre os 85, para obter as melhores composições com seis índices. Nas simulações, a fim de obter uma equação discriminante com o menor número possível de variáveis, o processo Stepwise finalizou em uma equação com seis variáveis independentes, conforme mencionado por Silva (1982) apud Mário (2002). Entretanto, nos testes realizados, o melhor modelo apresentava um total de 31 variáveis na equação, saindo de um percentual de acerto de 94,11%, com 31 variáveis, para 87,45%, com 6 variáveis. Esta relação pode ser mais bem visualizada no quadro abaixo.

Variações % Acumuladas Variáveis (índices) Acerto 6 87,45 13 90,20 116,67 3,14 28 91,76 366,67 4,93 31 94,11 416,67 7,62 Quadro 4: Quantidade de índices versus qualidade da análise. Fonte: Adaptado de Silva (2012, p. 230). Número de índices utilizados

Percentual de Acerto

Silva (2012) ainda ressalta, sobre o quadro acima, que de 6 variáveis para 13 variáveis, obtém-se apenas 3,14% de acerto, contra um aumento de 116,67% no número de índices. E com 31 índices, o que representa um aumento de 416,67% na quantidade de indicadores, é possível melhorar o modelo apenas em 7,62%. Segundo Silva (2008), a partir da pesquisa realizada em 1982, pode-se observar que, os seguintes pontos devem ser considerados no desenvolvimento e utilização de modelos:

55



Índices que melhor classificam empresas industriais podem não ser os melhores para empresas comerciais;



Índices que melhor discriminam um ano antes da insolvência não são os melhores, quando utilizados dois anos antes.

A amostra utilizada por José Pereira da Silva (1982) apud Mário (2002) foi de 419 empresas, divididas em solventes (compreendendo empresas ótimas e regulares) e empresas insolventes (envolvidas em processo de concordata ou falência). As empresas ótimas representavam, basicamente, as 10 melhores empresas de cada setor, e as regulares referiamse às empresas intermediárias. Da amostra, 337 empresas eram industriais e as restantes, comerciais. Sendo, ainda, 74,7% da amostra composta de empresas do Estado de São Paulo, segregadas por ramo de atividade e situação financeira. Silva (1982, p. 76) apud Mário (2002, p. 113-114) afirma que, com relação ao tamanho da amostra, os estudos não encontraram uma regra precisa, “porém, é necessário que a mesma seja suficiente para nos dar confiabilidade nas estimativas. Vale acrescentar que, quanto maior a quantidade de indicadores (variáveis), maior deverá ser a amostra”. Já para a seleção do grupo de empresas que comporiam a amostra, não houve um critério científico, ficando condicionada à base de dados que se possuía. Esta obra difere-se dos demais trabalhos, por ter Silva (1982) apud Mário (2002) criado dois modelos: um para empresas comerciais e outro para empresas industriais. Esses ainda foram adaptados, para realizar previsões em um determinado horizonte de tempo: um modelo para situação da empresa até o exercício seguinte e o outro para situação até o segundo exercício subsequente. Isso em relação ao período das demonstrações utilizadas. Os modelos elaborados por Silva (1982) apud Silva (2012) são apresentados a seguir:

Para Indústria: Z1i = escore discriminante para o próximo exercício e Z2i = escore discriminante para o segundo exercício. As equações são as seguintes: 𝑍1𝑖 = 0,722 − 5,124𝐸23 + 11,016𝐿19 − 0,342𝐿21 − 0,048𝐿26 + 8,605𝑅13 − 0,004𝑅29

𝑍2𝑖 = 5,235 − 9,437𝐸3 − 0,010𝐸9 + 5,327𝐸10 − 3,939E13 − 0,681L1 + 9,693𝑅13

(44) (45)

56

Onde: 𝐸3 =

𝑃𝑎𝑠𝑠𝑖𝑣𝑜 𝐶𝑖𝑟𝑐𝑢𝑙𝑎𝑛𝑡𝑒 + 𝐸𝑥𝑖𝑔í𝑣𝑒𝑙 𝑎 𝐿𝑜𝑛𝑔𝑜 𝑃𝑟𝑎𝑧𝑜 𝐴𝑡𝑖𝑣𝑜 𝑇𝑜𝑡𝑎𝑙 𝑉𝑎𝑟𝑖𝑎çã𝑜 𝑑𝑜 𝐼𝑘𝑜𝑏𝑖𝑙𝑖𝑧𝑎𝑑𝑜 (𝑓𝑖𝑛𝑎𝑙−𝑖𝑛𝑖𝑐𝑖𝑎𝑙)

𝐸9 = 𝐿𝑢𝑐𝑟𝑜 𝐿í𝑞𝑢𝑖𝑑𝑜 + 𝑂,1 𝐼𝑘𝑜𝑏𝑖𝑙𝑖𝑧𝑎𝑑𝑜 𝑀é𝑑𝑖𝑜 − 𝑅𝑒𝑠𝑢𝑙𝑡𝑎𝑑𝑜 𝐶𝑀 + 𝑉𝑎𝑟𝑖𝑎çã𝑜 𝑑𝑜 𝐸𝐿𝑃(𝑓𝑖𝑛𝑎𝑙−𝑖𝑛𝑖𝑐𝑖𝑎𝑙) 𝐸10 =

𝐹𝑜𝑟𝑛𝑒𝑐𝑒𝑑𝑜𝑟𝑒𝑠 𝐴𝑡𝑖𝑣𝑜 𝑇𝑜𝑡𝑎𝑙 𝐸𝑠𝑡𝑜𝑞𝑢𝑒𝑠

𝐸13 = 𝐴𝑡𝑖𝑣𝑜 𝑇𝑜𝑡𝑎𝑙

𝐸23 =

𝐷𝑢𝑝𝑙𝑖𝑐𝑎𝑡𝑎𝑠 𝐷𝑒𝑠𝑐𝑜𝑛𝑡𝑎𝑑𝑎𝑠 𝐷𝑢𝑝𝑙𝑖𝑐𝑎𝑡𝑎𝑠 𝑎 𝑅𝑒𝑐𝑒𝑏𝑒𝑟

(46) (47) (48) (49) (50)

𝐴𝑡𝑖𝑣𝑜 𝐶𝑖𝑟𝑐𝑢𝑙𝑎𝑛𝑡𝑒

(51)

𝐸𝑠𝑡𝑜𝑞𝑢𝑒𝑠

(52)

𝐿1 = 𝑃𝑎𝑠𝑠𝑖𝑣𝑜 𝐶𝑖𝑟𝑐𝑢𝑙𝑎𝑛𝑡𝑒

𝐿19 = 𝐶𝑢𝑠𝑡𝑜 𝑑𝑜 𝑃𝑟𝑜𝑑𝑢𝑡𝑜 𝑉𝑒𝑛𝑑𝑖𝑑𝑜 𝐿21 =

𝐹𝑜𝑟𝑛𝑒𝑐𝑒𝑑𝑜𝑟𝑒𝑠 𝑉𝑒𝑛𝑑𝑎𝑠

𝐸𝑠𝑡𝑜𝑞𝑢𝑒𝑠 𝑀é𝑑𝑖𝑜

𝐿26 = 𝐶𝑢𝑠𝑡𝑜 𝑑𝑜 𝑃𝑟𝑜𝑑𝑢𝑡𝑜 𝑉𝑒𝑛𝑑𝑖𝑑𝑜 x 360

𝐿𝑢𝑐𝑟𝑜 𝑂𝑝𝑒𝑟𝑎𝑐𝑖𝑜𝑛𝑎𝑙 + 𝐷𝑒𝑠𝑝𝑒𝑠𝑎𝑠 𝐹𝑖𝑛𝑎𝑛𝑐𝑒𝑖𝑟𝑎𝑠 𝐼𝑛𝑣𝑒𝑠𝑡𝑖𝑘𝑒𝑛𝑡𝑜𝑠 𝐼𝑛𝑖𝑐𝑖𝑎𝑙 + 𝐼𝑛𝑣𝑒𝑠𝑡𝑖𝑘𝑒𝑛𝑡𝑜𝑠 𝐹𝑖𝑛𝑎𝑙 − 2 2

𝑅13 = 𝐴𝑡𝑖𝑣𝑜 𝐼𝑛𝑖𝑐𝑖𝑎𝑙 + 𝐴𝑡𝑖𝑣𝑜 𝐹𝑖𝑛𝑎𝑙

𝑃𝑎𝑠𝑠𝑖𝑣𝑜 𝐶𝑖𝑟𝑐𝑢𝑙𝑎𝑛𝑡𝑒 + 𝐸𝑥𝑖𝑔í𝑣𝑒𝑙 𝑎 𝐿𝑜𝑛𝑔𝑜 𝑃𝑟𝑎𝑧𝑜

𝑅29 = 𝐿𝑢𝑐𝑟𝑜 𝐿í𝑞𝑢𝑖𝑑𝑜 + 𝑂,1 𝐼𝑘𝑜𝑏𝑖𝑙𝑖𝑧𝑎𝑑𝑜 𝑀é𝑑𝑖𝑜 −𝑅𝑒𝑠𝑢𝑙𝑡𝑎𝑑𝑜 𝑑𝑒 𝐶𝑜𝑟𝑟𝑒çã𝑜 𝑀𝑜𝑛𝑒𝑡á𝑟𝑖𝑎

(53) (54) (55) (56)

Para comércio: Z1c = escore discriminante para o próximo exercício e Z2c = escore discriminante para o segundo exercício. As equações são as seguintes: 𝑍1𝑐 = − 1,327 + 7,561𝐸5 + 8,201𝐸11 − 8,546𝐿17 + 4,218𝑅13 + 1,982𝑅23 + 0,091𝑅28

(57)

𝑍2𝑐 = 2,368 − 1,994𝐸5 + 0,138𝐸9 − 0,187𝐸25 − 0,025L27 − 0,184R11 − 8,059𝑅23 (58)

Onde:

𝐸5 =

𝑅𝑒𝑠𝑒𝑟𝑣𝑎𝑠 + 𝐿𝑢𝑐𝑟𝑜𝑠 𝑆𝑢𝑠𝑝𝑒𝑛𝑠𝑜𝑠 𝐴𝑡𝑖𝑣𝑜 𝑇𝑜𝑡𝑎𝑙

(59)

𝑉𝑎𝑟𝑖𝑎çã𝑜 𝑑𝑜 𝐼𝑘𝑜𝑏𝑖𝑙𝑖𝑧𝑎𝑑𝑜 (𝑓𝑖𝑛𝑎𝑙−𝑖𝑛𝑖𝑐𝑖𝑎𝑙)

(60)

𝐷𝑖𝑠𝑝𝑜𝑛í𝑣𝑒𝑙

(61)

𝐸9 = 𝐿𝑢𝑐𝑟𝑜 𝐿í𝑞𝑢𝑖𝑑𝑜 + 𝑂,1 𝐼𝑘𝑜𝑏𝑖𝑙𝑖𝑧𝑎𝑑𝑜 𝑀é𝑑𝑖𝑜 − 𝑅𝑒𝑠𝑢𝑙𝑡𝑎𝑑𝑜 𝐶𝑀 + 𝑉𝑎𝑟𝑖𝑎çã𝑜 𝑑𝑜 𝐸𝐿𝑃(𝑓𝑖𝑛𝑎𝑙−𝑖𝑛𝑖𝑐𝑖𝑎𝑙) 𝐸11 = 𝐴𝑡𝑖𝑣𝑜 𝑇𝑜𝑡𝑎𝑙

57

𝐷𝑖𝑠𝑝𝑜𝑛í𝑣𝑒𝑙

𝐸25 = 𝐴𝑡𝑖𝑣𝑜 𝑃𝑒𝑟𝑘𝑎𝑛𝑒𝑛𝑡𝑒

(62)

𝐿17 =

𝐴𝑡𝑖𝑣𝑜 𝐶𝑖𝑟𝑐𝑢𝑙𝑎𝑛𝑡𝑒 −𝐷𝑖𝑠𝑝𝑜𝑛í𝑣𝑒𝑙 − 𝑃𝑎𝑠𝑠𝑖𝑣𝑜 𝐶𝑖𝑟𝑐𝑢𝑙𝑎𝑛𝑡𝑒 + 𝐹𝑖𝑛𝑎𝑛𝑐𝑖𝑎𝑘𝑒𝑛𝑡𝑜𝑠 + 𝐷𝑢𝑝𝑙𝑖𝑐𝑎𝑡𝑎𝑠 𝐷𝑒𝑠𝑐𝑜𝑛𝑡𝑎𝑑𝑎𝑠 (63) 𝑉𝑒𝑛𝑑𝑎𝑠

𝑅11 =

𝐴𝑡𝑖𝑣𝑜 𝐼𝑛𝑖𝑐𝑖𝑎𝑙+𝐴𝑡𝑖𝑣𝑜 𝐹𝑖𝑛𝑎𝑙 𝑆𝑎𝑙á𝑟𝑖𝑜𝑠,𝑇𝑟𝑖𝑏𝑢𝑡𝑜𝑠 𝑒 𝐸𝑛𝑐𝑎𝑟𝑔𝑜𝑠 𝑓𝑖𝑛𝑎𝑖𝑠+𝑆𝑎𝑙á𝑟𝑖𝑜𝑠,𝑇𝑟𝑖𝑏𝑢𝑡𝑜𝑠 𝑒 𝐸𝑛𝑐𝑎𝑟𝑔𝑜𝑠 𝑖𝑛𝑖𝑐𝑖𝑎𝑖𝑠 − 2 2 (65) 𝑃𝑎𝑡𝑟𝑖𝑘ô𝑛𝑖𝑜 𝐿í𝑞𝑢𝑖𝑑𝑜

𝐿27 =

𝐷𝑢𝑝𝑙𝑖𝑐𝑎𝑡𝑎𝑠 𝑎 𝑅𝑒𝑐𝑒𝑏𝑒𝑟 𝑉𝑒𝑛𝑑𝑎𝑠

x 360

(64)

𝐿𝑢𝑐𝑟𝑜 𝑂𝑝𝑒𝑟𝑎𝑐𝑖𝑜𝑛𝑎𝑙 + 𝐷𝑒𝑠𝑝𝑒𝑠𝑎𝑠 𝐹𝑖𝑛𝑎𝑛𝑐𝑒𝑖𝑟𝑎𝑠 𝐼𝑛𝑣𝑒𝑠𝑡𝑖𝑘𝑒𝑛𝑡𝑜𝑠 𝐼𝑛𝑖𝑐𝑖𝑎𝑙 + 𝐼𝑛𝑣𝑒𝑠𝑡𝑖𝑘𝑒𝑛𝑡𝑜𝑠 𝐹𝑖𝑛𝑎𝑙 − 2 2

𝑅13 = 𝐴𝑡𝑖𝑣𝑜 𝐼𝑛𝑖𝑐𝑖𝑎𝑙 + 𝐴𝑡𝑖𝑣𝑜 𝐹𝑖𝑛𝑎𝑙

𝑅28 =

𝑅23 =

(66)

𝐿𝑢𝑐𝑟𝑜 𝑂𝑝𝑒𝑟𝑎𝑐𝑖𝑜𝑛𝑎𝑙 𝐿𝑢𝑐𝑟𝑜 𝐵𝑟𝑢𝑡𝑜

(67)

𝑃𝑎𝑡𝑟𝑖𝑘ô𝑛𝑖𝑜 𝐿í𝑞𝑢𝑖𝑑𝑜 𝑃𝑎𝑠𝑠𝑖𝑣𝑜 𝐶𝑖𝑟𝑐𝑢𝑙𝑎𝑛𝑡𝑒 + 𝑃𝑎𝑠𝑠𝑖𝑣𝑜 𝑛ã𝑜 𝐶𝑖𝑟𝑐𝑢𝑙𝑎𝑛𝑡𝑒 𝐿𝑢𝑐𝑟𝑜 𝐵𝑟𝑢𝑡𝑜 X 100 𝑉𝑒𝑛𝑑𝑎𝑠 𝑃𝑀𝑅𝐸 + 𝑃𝑀𝑅𝑉 − 𝑃𝑀𝑃𝐶

(68)

Silva (2012) comenta que, para qualquer um dos quatro modelos acima, deve-se proceder da seguinte forma: primeiramente, obter as informações financeiras das empresas e padronizá-las; calcular o valor da função Z (Z1c, Z2c, Z1i e Z2i) que se quer; e confrontar o valor obtido com a escala a seguir, para termos uma classificação do risco das empresas.

0 Z

-1,4 (E) Risco Elevado

P(S)

1,4 (D) Risco de Atenção

2,95 (C) Risco Médio

20%

80% 50% Figura 6: Escala de classificação de risco. Fonte: Adaptado de Silva (2012, p. 356) – Silva (2008, p. 285).

5,00 (B) Risco Modesto

95%

(A) Risco Mínimo 99%

Sendo: Z = valor da função Z (Z1c, Z2c, Z1i e Z2i) a ser obtido; P(S) = probabilidade de solvência das empresas.

De forma geral, quando o valor de Z for maior do que zero, a empresa é classificada como solvente, e quando for menor do que zero é classificada como insolvente. Esta classificação de Z ainda está associada a uma probabilidade de solvência. Quando o valor de Z é de -1,4, a probabilidade de solvência é de 20%. Quando 0 (zero), a probabilidade é de

58

50% (ponto do corte). Quando Z for de 1,4, a probabilidade é de 80%, e quando o Z for de 2,95, a probabilidade de solvência é de 95%. E assim por diante, conforme se pode notar na escala de rating. Esta escala permite identificar o nível risco em que se encontra determinada instituição, no momento da análise.

3.3.4.7 Outros estudos relevantes

Neste tópico, serão apresentados dois trabalhos que são relevantes para o presente estudo aqui realizado, por serem trabalhos da área de análise de risco de crédito que abordam o modelo dinâmico de análise financeira. O primeiro trabalho tratado será o realizado por Antônio Zoratto Sanvicente e Andrea Maria Accioly Fonseca Minardi, publicado em outubro de 1998, com o título de “Identificação de indicadores contábeis significativos para previsão de concordata de empresas”, no Instituto Brasileiro de Mercado de Capitais, Working Paper. Este é considerado, pelos próprios autores, como o trabalho pioneiro na análise de risco de crédito (que empreguem análises discriminantes), ao utilizar algumas das variáveis independentes que representam a dinâmica do overtrading. O estudo realizado por Sanvicente e Minardi (1998) tinha um caráter exploratório, que visava identificar quais seriam os índices contábeis mais significativos para prever concordatas de empresas no Brasil. Para a criação do modelo, os autores utilizaram a técnica estatística da análise discriminante. Em suma, foram selecionados, para análise, os índices contábeis dos trabalhos de Edward Altman, em 1968 e 1979. Já as variáveis do modelo dinâmico (mais especificamente a dinâmica do overtrading) foram inseridas com base nos estudos de Alexandre Assaf Neto e César Augusto Tibúrcio Silva, em seu livro “Administração do Capital de Giro”, de 1995, lançado pela Editora Atlas. Também foram testadas outras variáveis para o estudo, conforme salienta Sanvicente e Minardi (1998, p. 7):

[...] as cinco primeiras variáveis foram as mesmas testadas no Brasil por Altman, Baidya e Dias [...]. As variáveis X6 e X7 referem-se a medidas de liquidez que controlam o fenômeno de overtrading citado por Assaf Neto e Tibúrcio Silva. A variável X8 corresponde ao índice de cobertura de juros, e é uma das variáveis consideradas na concessão de ratings pela agência Standard & Poor´s (1997). As variáveis X9 a X14 foram sugeridas por Mossman, Bell, Swartz e Turtle (1998) em um modelo discriminante baseado em dados de fluxo de caixa.

59

Por ser um trabalho de natureza exploratória, Sanvicente e Minardi (1998) testaram, ao todo, 14 variáveis independentes. Dentre elas, estavam Necessidade de Capital de Giro (NCG) X6 e Saldo de Tesouraria (S) X7, como pode ser observado a seguir: 𝑋6 =

𝐴𝑡𝑖𝑣𝑜 𝐶𝑖𝑟𝑐𝑢𝑙𝑎𝑛𝑡𝑒 𝑂𝑝𝑒𝑟𝑎𝑐𝑖𝑜𝑛𝑎𝑙 – 𝑃𝑎𝑠𝑠𝑖𝑣𝑜 𝐶𝑖𝑟𝑐𝑢𝑙𝑎𝑛𝑡𝑒 𝑂𝑝𝑒𝑟𝑎𝑐𝑖𝑜𝑛𝑎𝑙 𝐴𝑡𝑖𝑣𝑜 𝑇𝑜𝑡𝑎𝑙

𝑋7 =

𝐴𝑡𝑖𝑣𝑜 𝐶𝑖𝑟𝑐𝑢𝑙𝑎𝑛𝑡𝑒 𝐹𝑖𝑛𝑎𝑛𝑐𝑒𝑖𝑟𝑜 – 𝑃𝑎𝑠𝑠𝑖𝑣𝑜 𝐶𝑖𝑟𝑐𝑢𝑙𝑎𝑛𝑡𝑒 𝐹𝑖𝑛𝑎𝑛𝑐𝑒𝑖𝑟𝑜 𝐴𝑡𝑖𝑣𝑜 𝑇𝑜𝑡𝑎𝑙

(69) (70)

Seguindo as orientações de Assaf Neto e Silva (2012), de que as variáveis X6 e X7 poderiam identificar melhor o fenômeno de overtrading, melhorando a capacidade de previsão do modelo, os autores substituíram a variável X1 (Altman 1968 e 1979) pelas variáveis X6 e X7. Neste contexto, instituições que apresentassem capital de giro líquido positivo, mas saldo de tesouraria negativo, seriam identificadas da mesma maneira que instituições que apresentassem capital de giro líquido negativo, mas saldo de tesouraria positivo. Com uma amostra reduzida a 81 casos, devido à falta de dados (sendo 37 concordatárias e 44 não concordatárias), Sanvicente e Minardi (1998) realizaram a análise com as variáveis X2, X3, X4, X5, X6 e X7. Apesar da alteração das variáveis, os resultados foram idênticos aos do modelo de cinco variáveis de Altman, persistindo ainda o problema de sinal negativo, apresentado pelas variáveis X2 e X5. Ao contrário de outros estudos mostrados, Sanvicente e Minardi (1998) afirmam que os indicadores contábeis, com maior poder de previsão para insolvência empresarial, são os índices de liquidez. Os autores afirmam também que não conseguiram obter melhor desempenho do modelo quando substituíram o índice de liquidez (X1) pelas suas duas componentes: Necessidade de Capital de Giro (X6) e Saldo de Tesouraria (X7). No estudo desenvolvido por Sanvicente e Minardi (1998), a função discriminante que obteve a maior precisão classificou corretamente 81,8% dos casos. Esta é demonstrada pela relação a seguir: 𝑍 = − 0,042 + 2,909𝑋1 – 0,875𝑋2 + 3,636𝑋3 + 0,172𝑋4 + 0,029𝑋8

(71)

Cabe ressaltar também, que esta função foi obtida com dados contábeis de um ano

antes de ocorrer o evento da concordata. Sanvicente e Minardi (1998) demonstram que o modelo perde seu poder preditivo, à medida que o período analisado se afasta do evento da concordata.

60

O segundo estudo segue a mesma linha de pesquisa do anterior, contudo encontra melhores resultados acerca da utilização das variáveis do modelo dinâmico. Este foi desenvolvido por Alfredo Tertuliano de Carvalho, em 2004, em sua dissertação intitulada “Modelo de previsão de insolvência para empresas comerciais”, apresentada ao Programa de Pós-graduação em Engenharia de Produção, da Universidade Federal de Santa Catarina. O estudo de Carvalho (2004), ao contrário do de Sanvicente e Minardi (1998), que teve como objetivo avaliar apenas empresas com ações negociadas em Bolsa de Valores, foca as micro e pequenas empresas comerciais. Este tem por finalidade verificar a relevância da utilização de dados contábeis que reflitam a dinâmica do overtrading, para previsão de insolvência. Carvalho (2004) utiliza das mesmas variáveis referentes ao modelo dinâmico de análise financeira, citadas por Sanvicente e Minardi (1998), com intuito de encontrar as medidas de liquidez que controlam o fenômeno do overtrading. Já o restante das variáveis utilizadas no modelo são as definidas por José Pereira da Silva (1982) apud Silva (2012), como as mais significativas para a previsão de insolvência de empresas comerciais e já demonstradas no tópico anterior. A variável X7 é tratada por Carvalho (2004) como um indicador de liquidez, que ao relacionar ativos e passivos operacionais, com o ativo total, retrata a Necessidade de Capital de Giro da empresa.

𝑋7 =

𝐴𝑡𝑖𝑣𝑜 𝐶𝑖𝑟𝑐𝑢𝑙𝑎𝑛𝑡𝑒 𝑂𝑝𝑒𝑟𝑎𝑐𝑖𝑜𝑛𝑎𝑙 – 𝑃𝑎𝑠𝑠𝑖𝑣𝑜 𝐶𝑖𝑟𝑐𝑢𝑙𝑎𝑛𝑡𝑒 𝑂𝑝𝑒𝑟𝑎𝑐𝑖𝑜𝑛𝑎𝑙 𝐴𝑡𝑖𝑣𝑜 𝑇𝑜𝑡𝑎𝑙

(72)

Outro indicador de liquidez abordado pelo autor a variável X8, que representa o Saldo de Tesouraria da empresa.

𝑋8 =

𝐴𝑡𝑖𝑣𝑜 𝐶𝑖𝑟𝑐𝑢𝑙𝑎𝑛𝑡𝑒 𝐹𝑖𝑛𝑎𝑛𝑐𝑒𝑖𝑟𝑜 – 𝑃𝑎𝑠𝑠𝑖𝑣𝑜 𝐶𝑖𝑟𝑐𝑢𝑙𝑎𝑛𝑡𝑒 𝐹𝑖𝑛𝑎𝑛𝑐𝑒𝑖𝑟𝑜 𝐴𝑡𝑖𝑣𝑜 𝑇𝑜𝑡𝑎𝑙

(73)

O melhor resultado, dentre os cinco modelos de previsão de insolvência desenvolvidos por Carvalho (2004), em seu estudo, foi obtido quando utilizados dados contábeis de um ano antes da ocorrência da inadimplência nas empresas. A análise discriminante efetuada alcançou um grau de precisão de 96%, classificando corretamente 96 das 100 empresas da amostra utilizada. Analisando separadamente, observase que, o nível de acerto obtido com o grupo de empresas solventes foi ainda superior, chegando a 98% e classificando corretamente 49 das 50 empresas da amostra. Já o grupo das

61

empresas insolventes apresentou taxa de 94% (acerto de 47 das 50 empresas), sendo ainda um grau de precisão bastante satisfatório. O modelo gerado a partir dos resultados da equação discriminante, obtida com dados contábeis do ano imediatamente anterior à inadimplência, obtidos por Carvalho (2004), é: 𝑍 = 1,714 − 0,947𝑋1 + 0,063𝑋2 − 0,094𝑋3 − 0,018𝑋4 + 0,072𝑋5 − 0,211𝑋6 (74) + 0,646𝑋7 + 1,119𝑋8

Carvalho (2004) explana que, na elaboração de seu estudo, pode-se destacar a

importância da dinâmica do overtrading como sendo de grande valia. O crescimento desequilibrado entre Necessidade de Investimento em Giro (NIG) e Capital Circulante Líquido (CCL) pode levar a empresa a uma situação de insolvência. O trabalho revelou-se de grande importância na construção de um modelo de previsão de insolvência para empresas comerciais, comprovando que a análise da dinâmica do overtrading pode ser apropriada para identificar problemas futuros de insolvência.

3.4 Redes neurais artificiais

Nesta parte do trabalho, serão apresentadas as Redes Neurais Artificiais e algumas de suas principais características, com objetivo de dar fundamentação e embasamento ao modelo de análise crédito que pretende ser criado neste trabalho. Braga et al. (2011, p. 3) explana que as redes neurais artificiais (RNAs) ressurgiram no final da década de 1980, e também são conhecidas como conexionismo ou sistemas de processamento paralelo e distribuídos. Segundo os autores, “essa forma de computação nãoalgorítmica é caracterizada por sistemas que, em algum nível, relembram a estrutura do cérebro humano. Por não ser baseada em regras, a computação neural se constitui em uma alternativa à computação algorítmica convencional”. Almeida e Nakao (2007) salientam que uma das técnicas mais recentes para tratamentos de dados, que tem despertado grande interesse, tanto de pesquisadores da área de tecnologia quanto da área de negócios, é a de redes neurais artificiais. Haykin (2001) observa que as pesquisas com redes neurais artificiais (usualmente denominadas de redes neurais) têm se expandido, devido ao fato do reconhecimento de que o

62

cérebro humano processa informações de maneira inteiramente diferente de um computador convencional. O cérebro é um computador (sistema de processamento de informação) altamente complexo, não linear e paralelo. Este é constituído basicamente por unidades estruturais elementares chamadas de neurônios (unidades de processamento), que podem apresentar diversas entradas e diversas saídas, estando maciçamente conectados entre si, na composição de uma rede neural (RN). Neste contesto Haykin (2001, p. 28), define redes neurais como:

Uma rede neural é um processador maciçamente paralelamente distribuído constituído de unidades de processamento simples, que têm a propensão natural para armazenar conhecimento experimental e torná-lo disponível para uso. Ela se assemelha ao cérebro humano em dois aspectos: 1. O conhecimento é adquirido pela rede a partir de seu ambiente, através de um processo de aprendizagem. 2. Forças de conexão entre neurônios, conhecidas como pesos sinápticos, são utilizadas para armazenar o conhecimento adquirido.

Hair et al. (2005) argumentam que as redes neurais artificiais são uma abordagem completamente diferente em relação a qualquer outra técnica multivariada. Essa diferença encontra-se na estrutura e no processo das redes neurais, que tem uma componente chave: a aprendizagem. Essa é outra similaridade com o cérebro humano, através da qual os erros de saída retornam ao princípio da rede e são ajustados de forma adequada. Almeida e Nakao (2007, p. 433) afirmam que “a técnica de redes neurais artificiais é útil quando há a necessidade de se reconhecerem padrões a partir do acúmulo de experiências ou de exemplos, e cuja representação é complexa”. Uma rede neural, segundo Hair et al. (2005), possui uma estrutura e operação que pode ser descrita a partir de quatro conceitos: (I) o tipo de modelo de rede neural; (II) as unidades de processamentos (nós) que tratam a informação que entra na rede, processam e criam um valor de saída; (III) o sistema de nós arranjados para transferir sinais dos nós de entrada para os nós de saída, através dos nós intermediários; (IV) a função de aprendizado pela qual o sistema “retorna” erros na previsão para calibrar o modelo. Por causa de seu poder, flexibilidade e facilidade de uso, as redes neurais são a ferramenta preferida para várias aplicações de mineração de dados preditiva. As redes neurais são particularmente úteis em aplicações onde o processo subjacente se mostra complexo. Um exemplo é o Credit Scoring de um requerente a empréstimo, que determinará o risco da concessão de crédito ao mesmo (IBM, 2012).

63

3.4.1 Redes neurais artificiais: breve histórico

Vários autores, entre eles Haykin (2001 p. 63-69), Almeida e Nakao (2007, p. 433434) e Braga et al. (2011, p. 3-5), trazem em suas obras um histórico referente ao surgimento das redes neurais artificiais. Estes explanam que o artigo pioneiro publicado foi o de Warren McCulloch e Walter Pitts, em 1943. Warren McCulloch foi um psiquiatra e neuroanatomista por treinamento que, durante 20 anos, refletiu sobre a representação de um evento no sistema nervoso. Walter Pitts foi um prodígio matemático que, em 1942, se associou a Warren McCulloch (HAYKIN, 1999). No ano seguinte, McCulloch e Pitts (1943) publicaram um artigo intitulado “A Logical Calculus of the Ideas Immanent in nervous Activity”. Neste estudo, eles traziam uma sofisticada discussão sobre as redes lógicas de neurônios artificiais denominados de MCP (devido a McCulloch e Pitts), que unificavam os estudos da neurofisiologia e da lógica matemática. Segundo os autores, o seu modelo de neurônio segue a lei do “tudo ou nada”, que é um caráter da atividade nervosa, sendo que eventos neurais e as relações entre eles podem ser tratados por meio da lógica proposicional. McCulloch e Pitts demonstraram que uma rede assim construída realizaria, a priori, a computação de qualquer função computável. Este era um resultado muito significativo e com ele é geralmente aceito o nascimento das disciplinas de redes neurais e inteligência artificial. O artigo é até hoje uma referência no estudo das redes neurais artificiais (HAYKIN, 2001). Um segundo trabalho importante foi o livro publicado por Donald Hebb, em 1949, intitulado “The Organization of Behavior”, no qual foram propostas as primeiras regras de aprendizado para redes neurais artificiais (HAYKIN, 2001). Hebb mostrou como as variações dos pesos de entradas dos neurônios podem tornar a aprendizagem das redes neurais prática. “Ele sugeriu uma teoria, para demonstrar o aprendizado em neurônios biológicos, baseada no reforço das ligações sinápticas entre neurônios excitados (BRAGA et al., 2011). Hebb fez a interação entre a psicologia e a fisiologia, mostrando que uma conexão neural é reforçada cada vez que é utilizada. Este acontecimento é até hoje conhecido como a Regra de Aprendizagem de Hebb (ALMEIDA; NAKAO, 2007). Frank Rosenblatt, em 1958, foi o próximo autor a se destacar neste processo. Após 15 anos de publicado o artigo de McCulloch e Pitts, Rosenblatt apresenta o seu novo modelo, o perceptron, um método inovador de aprendizagem supervisionada (HAYKIN, 2001).

64

Rosenblatt demonstrou que, se fossem acrescidas de sinapses ajustáveis, as RNAs com neurônios MCP, estas poderiam ser treinadas para classificar certos tipos de padrões. O autor ainda descreveu uma topologia de RNA, estruturas de ligações entre os neurônios e propôs um algoritmo para treinar a rede para determinados tipos de funções (BRAGA et al., 2011). Em 1969, Minsky e Papert afirmaram, em seu livro, que o perceptron de uma única camada descrito por Rosenblatt, em 1958, não era capaz de executar todo tipo de tarefa, estando este condicionado à solução de problemas linearmente separáveis (BRAGA et al., 2011). E, em uma breve sessão sobre os perceptron de múltiplas camadas, Minsky e Papert enfatizaram que não havia razão para supor que o perceptron de múltiplas camadas poderia superar as limitações do perceptron de uma única camada (HAYKIN, 2001). O interesse pelas redes neurais veio a retornar, em 1982, com a publicação de um artigo de John Hopfield, que demonstrava, com análise matemática, como as redes neurais poderiam funcionar e o que elas poderiam fazer. Hopfield, em 1986, descreveu o algoritmo de treinamento back-propagation, confrontando a opinião de Minsky e Papert, em 1969, e provando que as redes de múltiplas camadas eram capazes de resolver problemas complexos (ALMEIDA; NAKAO, 2007). Neste mesmo ano de 1986, foi apresentada por Rumelhart e McClelland, a regra delta generalizada de aprendizagem, que se tornou referência na criação de algumas redes neurais artificiais mais utilizadas (ALMEIDA; NAKAO, 2007). A partir da década de 1980, houve uma grande explosão no interesse pelas redes neurais artificiais. Desde então, a área passou por diversas transformações e todo este cenário vem sendo acompanhado pelo avanço da tecnologia dos computadores, que possibilita cada vez mais pesquisas neste campo.

3.4.2 Inspiração biológica: o cérebro humano

Os estudos sobre os neurônios biológicos serviram como base para o desenvolvimento das redes neurais artificiais. Estima-se que haja mais de 100 bilhões de neurônios em um cérebro humano e mais de uma centena de diferentes tipos de neurônios. Todas estas células interligadas formam o que se conhece como rede neural (ALMEIDA; NAKAO, 2007).

65

Haykin (2001) menciona que o sistema nervoso pode ser interpretado como um sistema de três estágios: receptores, sistema nervoso (rede neural) e atuadores, como pode ser observado na Figura 7.

Estímulo

Receptores

Rede Neural

Atuadores

Resposta

Figura 7: Representação em diagramas de blocos do sistema nervoso. Fonte: Adaptado de Haykin (2001, p. 32).

O centro do sistema é o cérebro, que é representado pela rede neural (nervosa). Este recebe informações continuamente e com elas tomam decisões apropriadas. Na figura acima, as setas que apontam da esquerda para a direita representam a emissão para frente do sinal portador de informações (através do sistema). Já as setas que apontam da esquerda para direita indicam a presença de realimentação no sistema. Neste fluxo, os receptores convertem os estímulos do corpo humano ou do ambiente externo em impulsos elétricos e transmitem informações para a rede neural (cérebro). Os atuadores convertem os impulsos elétricos gerados pela rede neural em respostas discerníveis como saídas do sistema (HAYKIN, 2001). As redes neurais artificiais têm sua modelagem inspirada no funcionamento do cérebro, cuja unidade básica de processamento é o neurônio biológico. A estrutura básica das partes constituintes do neurônio pode ser vista na Figura 8, a seguir:

Figura 8: Representação de um neurônio. Fonte: Adaptado de Russell e Norvig (2004, p. 13).

Segundo Ludwig Junior e Montgomery (2007), os principais componentes encontrados nos neurônios biológicos, como pode ser visualizado na Figura 8, são: os

66

dendritos, que têm função de receber os estímulos enviados pelos outros neurônios; o corpo celular do neurônio (também conhecido por soma) e o núcleo, que tem a função de coletar e combinar informações vindas de outros neurônios; o axônio, que é constituído de uma fibra tubular (esta pode alcançar alguns metros) responsável por transmitir os estímulos para outras células (sinal de saída do neurônio). Antes do sinal emitido por um neurônio entrar no próximo neurônio, este deve passar por uma sinapse, que é o processo de ligação entre o axônio e o dendrito. A passagem, entretanto, não é elétrica, e sim química (através da substância serotonina). Se o sinal for superior a certo limite (threshold), ele segue em frente; caso não seja, ele é bloqueado e não segue (LUDWIG JUNIOR; MONTGOMERY, 2007). Haykin (2001) salienta que a sinapse pode impor ao neurônio receptivo excitação ou inibição, mas não ambas. O que significa que, quando os valores das entradas atingem um determinado limiar, o neurônio "dispara" ou não. As sinapses são unidades estruturais e funcionais onde a saída de um neurônio entra em contato com a entrada de outro. O tipo mais comum de sinapse encontrada no cérebro é a sinapse química, na qual um processo pré-sináptico libera uma substância química transmissora que se difunde na junção entre os neurônios e, então, atua em um processo póssináptico. Logo, a sinapse converte um sinal elétrico pré-sináptico em um sinal químico e, então, de volta em um sinal elétrico pós-sináptico (HAYKIN, 2001). Ludwig Junior e Montgomery (2007) elucidam que na, passagem por um neurônio, um sinal pode ser amplificado ou atenuado, dependendo do detrito de origem, porque, a cada condutor, é associado um peso (weight), pelo qual o sinal é multiplicado. A memória são os pesos e o valor dos pesos é estabelecido pelo cérebro, por meio de treinamento, durante sua vida útil, isto é, a memorização.

3.4.3 O neurônio artificial: funcionamento

Haykin (2001) apresenta a unidade fundamental de processamento de uma rede neural artificial, o neurônio artificial. Os neurônios artificiais podem ser classificados em vários modelos. Entretanto, estes se diferenciam basicamente pelo tipo de entrada (binária ou contínua), tipo de saída e função de ativação que será utilizada. A representação de um

67

neurônio base para o projeto de redes neurais (artificiais) é apresentado na Figura 9, conforme demonstrado a seguir:

Entrada fixa 𝑥0 = +1 𝑥1 Sinais de entrada

𝑥2

𝑥𝑚

𝑤𝑘0

𝑤𝑘0 = 𝑏𝑘 (bias)

𝑤𝑘1

𝑤𝑘2

𝑤𝑘𝑘

Função de ativação



Junção aditiva

𝑣𝑘

𝜑(. )

Saída

𝑦𝑘

Pesos sinápticos

Figura 9: Modelo não linear de um neurônio. Fonte: Adaptado de Haykin (2001, p. 38).

Como observado por Haykin (2001), na Figura 9, pode-se visualizar três elementos básicos do modelo neural: 1. Um conjunto de sinapses, cada uma caracterizada por um peso próprio. Sendo cada sinal 𝑥𝑗 na entrada da sinapse 𝑗 ligada ao neurônio 𝑘 e multiplicada pelo peso sináptica 𝑤𝑘𝑗 ,

onde o primeiro subscrito indica o neurônio (𝑘) em questão e o segundo se refere ao terminal de entrada da sinapse (𝑗), à qual o peso se refere;

2. Uma função soma que realiza o somatório de todos os sinais de entrada, ponderados

pelos seus respectivos pesos. 3. Uma função de ativação, para decidir acerca da transmissão do sinal (impulso) de um neurônio. Esta função também restringe a amplitude de sinal de saída a um valor finito. Normalmente, este é escrito em intervalo unitário fechado [0, 1] ou alternativamente [-1, 1]. Outro elemento de entrada, demonstrado por Haykin (2001) para o processamento do modelo neuronal, é o bias, representado por 𝑏𝑘 . Este tem o efeito de aumentar, se positivo; e de diminuir, se negativo, a entrada líquida da função de ativação. O efeito do bias pode ser

levado em conta de duas maneiras: adicionando um sinal de entrada fixo em + 1 e sendo um peso sináptico igual ao bias 𝑏𝑘 . Este procedimento pode ser representado de forma matemática como se segue:

68

e

Onde:

𝑥0 = + 1

𝑤𝑘0 = 𝑏𝑘

(78) (79)

𝑥0 sinal de entrada fixa do neurônio;

𝑤𝑘0 peso sináptico do neurônio 𝑘 na entrada fixa;

𝑏𝑘 é o bias aplicado ao neurônio 𝑘 correspondente ao 𝑤𝑘0 . O funcionamento deste neurônio demonstrado tendo em consideração o bias como um peso sináptico, pode ser descrito matematicamente pelas seguintes equações: 𝑘

e

Onde:

𝑣𝑘 = � 𝑤𝑘𝑗 𝑥𝑗

(80)

𝑦𝑘 = 𝜑 (𝑣𝑘 )

(81)

𝑗=0

𝑗 é o índice das 𝑠 entradas do neurônio; 𝑥𝑗 são os sinais de entrada do neurônio;

𝑤𝑘𝑗 são os pesos sinápticos do neurônio 𝑘;

𝑣𝑘 chamado de campo local induzido, é a saída do combinador linear (devido aos

sinais de entrada) somado ao bias do neurônio 𝑘;

𝜑 (. ) é a função de ativação do neurônio 𝑘 e 𝑦𝑘 é o sinal de saída do neurônio.

Para a construção de um modelo de redes neurais artificiais, devem ser consideradas três características fundamentais, a saber: a arquitetura, que dá forma à rede (organização da rede em camadas); o algoritmo de aprendizado, mais eficaz para o modelo proposto (método para determinação dos pesos); e a função de ativação (que estipula os dados estipulados). Os tópicos a seguir darão maiores explicações destas características.

69

3.4.4 Principais tipos de função de ativação

Como dito anteriormente, um neurônio possui um estímulo de saída, que é controlado pela sua função de ativação. Esta função define se o sinal irá prosseguir (por isso é chamada de função de ativação), como também desempenha o papel de restringir a amplitude de saída de um neurônio, ficando em no intervalo de [0,1] ou [-1, 1]. Alguns exemplos de funções de ativação utilizadas podem ser visualizados na Figura 10, que apresenta três tipos de funções de ativação, a saber: (a) função logística sigmóide (logsig); (b) função tangente hiperbólica (tansig) e (c) a função linear de ativação (purelin).

𝑎

+1

0

−1

𝑎 = 𝑙𝑙𝑙𝑙𝑙𝑙(𝑛) 𝑠𝑠𝑠𝑠ó𝑖𝑖𝑖

𝑏 𝑛

+1

0

−1

𝑏 = 𝑡𝑡𝑡𝑡𝑡𝑡(𝑛) 𝑡𝑡𝑡𝑡𝑡𝑡𝑡𝑡 ℎ𝑖𝑖𝑖𝑖𝑖ó𝑙𝑙𝑙𝑙

Figura 10: Funções de Ativação. Fonte: Adaptado de MathWorks (2012, p. 57-58).

𝑐 𝑛

+1

0

𝑛

−1

𝑐 = 𝑝𝑝𝑝𝑝𝑝𝑝𝑝(𝑛) 𝑓𝑓𝑓çã𝑜 𝑙𝑙𝑙𝑙𝑙𝑙

Haykin (2001) enfatiza que a função logística sigmóide, cujo gráfico tem forma de 𝑆, é

de longe a função de ativação mais utilizada na construção de redes neurais artificiais. Esta pode assumir valores entre [0, 1]. Conforme pode ser observado na Equação 82, 𝑎 é o

parâmetro de inclinação da função sigmóide.

𝜑 (𝑣) =

1

1+ 𝑒 −(𝑎𝑣)

(82)

Algumas vezes, é desejável que a função de ativação se estenda no intervalo de [-1, +1], assumindo uma forma antissimétrica em relação à origem. A função tangente hiperbólica pode ser utilizada, neste caso, por assumir valores no intervalo de [-1, +1] e por ser correspondente a uma função sigmóide. O fato de utilizar uma função do tipo sigmóide que assuma valores negativos, traz benefícios analíticos ao modelo (HAYKIN, 2001). A função tangente hiperbólica pode ser vista na Equação 83:

70

𝜑 (𝑣) = 𝑡𝑎𝑛𝑙 (𝑣)

(83)

Os neurônios de saída sigmóides apresentados acima são utilizados, na maioria das vezes, para problemas de reconhecimento de padrões, enquanto que os neurônios que possuem saída linear são utilizados para problemas da função de ajuste (MATHWORKS, 2012). A função de ativação linear pode ser vista na Equação 84, onde se tem: 𝑎 como um

número real, que a partir dos valores de entrada define a saída linear; 𝜑(𝑣) a saída; e 𝑥 a entrada, como se pode visualizar abaixo:

𝜑 (𝑣) = 𝑎𝑥

(84)

As três funções de transferência aqui descritas são as funções mais utilizadas para a criação das redes de múltiplas camadas. Entretanto, outras funções de transferência podem ser criadas e utilizadas, conforme as necessidades de cada modelo e pesquisa (MATHWORKS, 2012).

3.4.5 Principais arquiteturas

Braga et al. (2011) comentam que, independente da função de ativação utilizada, um neurônio individual possui pouca capacidade computacional. Entretanto, um conjunto de neurônios artificiais interligados na forma de uma rede (neural) é capaz de resolver problemas complexos. Esta interligação, pela qual os neurônios conectam-se uns aos outros, é definida como arquitetura de rede. Haykin (2001) defende que as redes neurais artificiais se diferenciam pela arquitetura e pelo modo como os pesos são associados (ajustados) às conexões, durante o processo de aprendizagem. A arquitetura utilizada pela rede determina (restringe) para qual tipo de problema a rede poderá ser utilizada. De forma simplificada, pode-se dizer que a arquitetura é definida pela organização da rede em camadas. Braga et al. (2011) ressaltam que as redes neurais artificiais com uma camada única de neurônios, por exemplo, só conseguem resolver problemas linearmente separáveis, enquanto redes recorrentes, por sua vez, são mais apropriadas para resolver problemas que envolvem processamento temporal.

71

A forma pela qual os neurônios de uma rede neural estão estruturados está intrinsecamente ligada ao algoritmo de aprendizagem utilizado para treinar a rede. Pode-se dizer, então, que os algoritmos utilizados no projeto das redes são estruturados (HAYKIN, 2001). Outras considerações sobre algoritmos de aprendizagem serão apresentados em um tópico específico. Nos itens a seguir, são descritas as três classes de arquiteturas de redes neurais artificiais, que, de acordo com Haykin (2001), são fundamentalmente diferentes.

3.4.5.1 Redes alimentadas adiante com camada única

Segundo Haykin (2001), esta é a forma mais simples que uma rede neural pode ser organizada em camadas. A rede possui uma camada de entrada de nós de fonte, que não realiza qualquer computação, e esta se projeta sobre uma camada de saída de neurônios (nós computacionais), e não vice-versa. Assim, cada saída de um dos neurônios constitui uma saída da rede. A rede é conhecida como alimentada adiante (feedforward), pois a camada de nós fonte fornece as entrada para a camada de saída, não ocorrendo laços de realimentação dentro da rede. Esta arquitetura descrita pode ser observada na Figura 11.

𝑥1

𝑦1

𝑥2

𝑦2

𝑥3

𝑦3

𝑥𝑚

𝑦𝑘

Camada de entrada de neurônio de fonte

Camada de saída de neurônio

Figura 11: Rede alimentada adiante ou acíclica com uma única camada de neurônios. Fonte: Adaptado de Haykin (2001, p. 47).

72

Braga et al. (2011) elucidam que estruturas mais simples como esta, por possuírem uma única camada de nós computáveis, são capazes de resolver problemas multivariáveis de múltiplas funções acopladas, mas com algumas restrições.

3.4.5.2 Redes alimentadas adiante com múltiplas camadas

Haykin (2001) frisa que, nesta segunda classe de redes neurais alimentada adiante, encontra-se a presença de uma ou mais camadas de neurônios (nós computacionais) entre a camada de entrada e a camada de saída. Estas são chamadas de camadas ocultas ou intermediárias e, por sua vez, constituídas de neurônios ocultos. Ao adicionar uma ou mais camadas ocultas à rede, torna-se capaz de extrair estatísticas de ordem elevada, adquirindo uma perspectiva global, devido ao seu número extra de conexões sinápticas. Braga et al. (2011) mencionam que a camada intermediária acrescentada a redes alimentadas adiante, possibilita uma maior capacidade computacional e universalidade na aproximação de funções contínuas. A Figura 12 apresenta a arquitetura alimentada adiante, com múltiplas camadas. 𝑥1

𝑥2

𝑦1

𝑥3

𝑦2

𝑥4

𝑥𝑚

Camada de entrada de nós de fonte

Camada de neurônios ocultos

Camada de neurônios de saída

Figura 12: Rede alimentada adiante de múltiplas camadas. Fonte: Adaptado de Haykin (2001, p. 48).

Nesta arquitetura e na anterior (camada única), as redes são ditas totalmente conectadas, visto que cada um dos nós de uma camada está interligado a todos os nós da camada seguinte. As redes que não possuem esta característica são ditas parcialmente conectadas (HAYKIN, 2001).

73

3.4.5.3 Redes recorrentes

De acordo com Haykin (2001), as redes neurais recorrentes diferem das redes alimentadas adiante, por possuírem pelo menos um laço de realimentação. Uma rede recorrente pode consistir de uma única camada de neurônios, com cada qual utilizando seu sinal de saída, para realimentar todas as entradas dos neurônios como demonstrado na Figura 13(a). Ou ainda, pode ocorrer à auto-realimentação, que é quando a saída de um neurônio é realimentada por sua própria entrada. A Figura 13(b) apresenta uma rede deste tipo, com neurônios ocultos. Ainda segundo o autor, a presença de laços de realimentação tem um impacto profundamente positivo na capacidade de aprendizado da rede e no seu desempenho como um todo. Entretanto, o processo de treinamento das redes recorrentes não será abordado neste trabalho.

Operadores de

𝑍 −1 𝑍 −1 𝑍 −1 𝑍 −1 atraso unitário

𝑍 −1

𝑍 −1

Saídas

𝑍 −1 𝑍 −1

Operadores de atraso unitário Entradas

(a) Rede recorrente sem laços de auto-realimentação e sem neurônios

(b) Rede recorrente com neurônios ocultos

Figura 13: Redes recorrentes. Fonte: Adaptado de Haykin (2001, p. 48-49).

Braga et al. (2011) destacam que as arquiteturas apresentadas anteriormente, de redes alimentadas adiante (camada única e múltiplas camadas), são consideradas estáticas, porque não possuem recorrências em suas estruturas e suas saídas, em determinado instante, dependem somente das entradas atuais. Já as estruturas recorrentes possuem conexões entre neurônios de um mesmo nível ou entre neurônios de saída e de camadas anteriores. Estas estruturas são utilizadas para problemas de processamento temporal, como por exemplo, na previsão de eventos futuros.

74

3.4.6 Tipos de aprendizagem das RNA

Como mencionado anteriormente, uma das características fundamentais das redes neurais artificiais é sua capacidade de aprender através da interação com o meio ambiente exposto a ela, e também fazer inferências do que aprendeu. Haykin (2001, p. 75) define aprendizado no contexto de redes neurais como:

Aprendizagem é um processo pelo qual os parâmetros livres de uma rede neural são adaptados através de um processo de estimulação pelo ambiente no qual a rede está inserida. O tipo de aprendizagem é determinado pela maneira pela qual a modificação dos parâmetros ocorre.

Segundo o autor, a partir desta definição, surgem três consequências diretas: a rede neural é estimulada por um ambiente; a rede induz mudanças nos seus parâmetros livres, como resultado destes estímulos e, por último, a rede neural responde de uma nova maneira ao ambiente, devido às mudanças ocorridas na sua estrutura interna. Braga et al. (2011) elucidam que as redes neurais (abordagem conexionista) não adquirem conhecimento por meio de regras específicas, mas através do ajuste das intensidades das conexões entre os seus neurônios. Esta aprendizagem consiste no ajuste de parâmetros da rede (os pesos das conexões), através de um processo interativo, que ao final resulta no armazenamento do conhecimento que a rede adquiriu do ambiente externo. Conforme mencionando por Braga et al. (2011), existem diversos algoritmos para treinamento de redes neurais. Entretanto, estes podem ser agrupados em dois paradigmas principais: o aprendizado supervisionado e o aprendizado não supervisionado. Outro paradigma tratado será o de aprendizado por reforço que é o exemplo mais típico de aprendizado supervisionado que consta na obra de Braga et al. (2011) e de Haykin (2001).

3.4.6.1 Aprendizagem supervisionada

Braga et al. (2011) afirmam que a aprendizagem supervisionada implica a existência de um professor externo, que é responsável por estimular as entradas da rede através de padrões de entrada e verificar a saída calculada pela mesma, comparando-a com a saída

75

desejada. Como a saída de resposta da rede se deve à função dos valores atuais (seu conjunto de pesos), estes são ajustados, visando aproximar a saída presente da rede à saída desejada. A esse respeito, Haykin (2001) enfatiza que, em termos gerais, pode-se considerar que este professor tem conhecimento do ambiente externo, que é representado por um conjunto de entradas e saídas. Contudo, a rede desconhece este ambiente. Por isso, seus parâmetros são ajustados por meio de um vetor de treinamento e de um sinal de erro. O vetor é a resposta desejada e o sinal de erro é definido como a diferença entre a resposta desejada e a resposta real da rede. Este ajuste é realizado passo a passo, objetivando que a rede neural possa emular o professor, transferindo o conhecimento sobre o ambiente disponível ao professor para a rede. Quando esta condição é alcançada, pode-se dispensar o professor e deixar a rede interagir diretamente com o ambiente (HAYKIN, 2001). Este processo pode ser mais bem observado na Figura 14.

Ambiente

Vetor descrevendo o estado do ambiente

Professor Resposta desejada Sistema de aprendizagem

Resposta real

-



+

Sinal de erro

Figura 14: Aprendizagem supervisionada. Fonte: Adaptado a (Haykin 20, p. 88).

Braga et al. (2011) comentam que o aprendizado supervisionado pode ser implementado de duas formas: off-line e on-line. No treinamento off-line, uma vez encontrada a solução para a rede os dados do conjunto de treinamento, não muda, mantendo a rede fixa. Entretanto, se um novo conjunto de dados for adicionado, um novo treinamento envolvendo também os dados anteriores deve ser executado, evitando-se, assim, interferência no treinamento anterior. Já no aprendizado on-line, o conjunto de dados muda continuamente, obrigando a rede a se manter num contínuo processo de adaptação.

76

3.4.6.2 Aprendizagem por reforço

Braga et al. (2011) explicam que, no aprendizado por reforço, o crítico externo procura maximizar o reforço das ações boas executadas pela rede. Neste sentido, o aprendizado por reforço se caracteriza como um processo de tentativa e erro, que visa maximizar o índice de desempenho escalar da rede, chamado de sinal de reforço. Um esquema genérico do aprendizado por reforço pode ser mais bem observado na Figura 15, onde se nota que a função crítico é semelhante à do supervisor do aprendizado supervisionado.

Crítico Reforço/penalidade

RNA

Ação

Figura 15: Aprendizado por reforço. Fonte: Adaptado de Braga et al. (2011, p. 16).

Haykin (2001) ressalta que, no aprendizado por reforço, o aprendizado do mapeamento de entrada e saída é realizado através da interação contínua com o ambiente. Este aprendizado visa a minimizar um índice escalar de desempenho (função de custo cumulativo para avançar ao longo de uma sequência de passos), através de um crítico que converte um sinal de reforço primário recebido do ambiente em um sinal de melhor qualidade (denominado reforço heurístico).

3.4.6.3 Aprendizagem não supervisionada

Braga et al. (2011) esclarecem que, no aprendizado não supervisionado, não existe um acompanhante externo ao aprendizado. Nesta configuração de treinamento, apenas os padrões de entrada estão disponíveis para a rede (ao contrário do supervisionado, onde existem pares de entradas e saídas). Durante esse processo de aprendizado, os padrões de entrada são apresentados de forma contínua à rede, e a existência de regularidades nesses dados faz com

77

que o aprendizado seja possível. Um exemplo de um esquema genérico do aprendizado não supervisionado pode ser visto na Figura 16.

Estado do ambiente

Ambiente

Resposta

RNA

Figura 16: Aprendizagem não supervisionada. Fonte: Adaptado de Braga et al. (2011, p. 17).

A esse respeito, Haykin (2001) destaca que, não havendo um professor externo ou um crítico para supervisionar o processo de aprendizagem, são dadas condições para que a rede realize uma medida independente da tarefa, da qualidade da representação que a rede deve aprender (os parâmetros livres da rede são otimizados em relação a esta medida). Assim que a rede se ajusta às regularidades estatísticas dos dados de entrada, ela desenvolve a habilidade para formar representações internas e codificar as características de entrada. Após ser treinada, uma rede neural se torna apta para associar um conjunto de valores apresentados em suas entradas a um resultado de saída. Todavia, esta capacidade não pode ser vista apenas como uma memória, pois a rede tem a habilidade da generalização. Uma rede neural pode vir a descobrir respostas corretas mesmo em casos em que os dados estejam incompletos ou danificados (HAYKIN, 2001).

3.4.7 Redes perceptron

Neste item, serão abordadas as redes perceptron de uma única camada e perceptron de multicamadas. O intuito da abordagem dessas redes é de dar fundamentação ao presente estudo aqui realizado, tendo visto que as características do perceptron de multicamadas parecem atender ao tipo de pesquisa realizada. Almeida e Nakao (2007) enfatizam que a arquitetura utilizada pela rede neural artificial pode restringir o tipo de problema a ser analisado. Os autores observam que as redes sem camadas escondidas (perceptron de uma única camada) conseguem fazer apenas separações lineares. Entretanto, as redes multicamadas (perceptron de multicamadas) são apropriadas para análise de problemas mais complexos e conseguem separar qualquer função contínua, sendo ela linear ou não linear.

78

3.4.7.1 Perceptron de uma única camada

Russell e Norvig (2004, p. 716) afirmam que “uma rede com todas as entradas conectadas diretamente às saídas é chamada rede neural de uma única camada, ou rede de perceptron”. Os autores observam que cada peso afeta apenas uma das saídas, tendo em vista que cada uma das unidades de saída é independente das demais. Segundo Braga et al. (2011), foi com o trabalho desenvolvido por Frank Rosenblatt, em 1958, que foi introduzido o conceito de aprendizado nos estudos de redes neurais. O modelo de Frank Rosenblatt ficou conhecido como perceptron, que era composto por uma estrutura de rede, neurônios artificiais propostos por McCulloch e Pitts (1943) e por uma regra de aprendizado. Frank Rosenblatt demonstrou, alguns anos mais tarde, o teorema de convergência do perceptron. Nesse, Rosenblatt mostra que um neurônio MCP (neurônios artificiais propostos por McCulloch e Pitts) treinado com o algoritmo de aprendizado do perceptron, sempre converge, caso o problema em questão seja linearmente separável (BRAGA et al., 2011). Haykin (2001) esclarece que o neurônio MCP consiste em um combinador linear seguido por um limitador abrupto, que realiza a função sinal. O nó aditivo do modelo calcula uma combinação linear das entradas aplicadas às suas sinapses e também incorpora um bias aplicado externamente. Sendo assim, o neurônio produz uma saída igual a +1, se a entrada do limitador abrupto (𝑣) for positivo e −1, se este for negativo.

Na Figura 17, pode ser visualizado um diagrama completo com a representação do

fluxo de sinal deste neurônio. As equações que se seguem são de autoria de Haykin (2001).

𝑥2

𝑥3

𝑥𝑚

𝑤2

𝑤3

𝑤1

Entrada 𝑥0 = +1 fixa

Bias, 𝑏

𝑣

𝑤𝑚

𝜑(𝑣)

Limitador abrupto

Saída

𝑦

(a)

Figura 17: Diagrama de fluxo de sinal do perceptron. Fonte: Adaptado de Haykin (2001, p. 162-164).

Entradas

Entradas

𝑥1

𝑥1

𝑥2

𝑥𝑚

𝑤1

𝑤2

𝑤0 = 𝑏 𝑣

𝑤𝑚

Combinador linear

(b)

𝜑(𝑣)

Limitador abrupto

Saída

𝑦

79

No diagrama de fluxo de sinal, na Figura 17, os pesos sinápticos são representados por 𝑤1 , 𝑤2 … 𝑤𝑛 , e as entradas são representadas por 𝑥1 , 𝑥2 … 𝑥𝑛 . O bias aplicado externamente é

representado por 𝑏, e a equação que fornece como resultado o campo local induzido do neurônio (limitador abrupto) é:

𝑘

𝑣 = � 𝑤𝑖 𝑥𝑗 + 𝑏

(85)

𝑖=1

O objetivo do perceptron de Rosenblatt é classificar os sinais externos de entradas 𝑥1 , 𝑥2 … 𝑥𝑛 em duas classes distintas, ∁1 se a saída 𝑦 do perceptron for +1 e ∁2 , se a saída for

−1. Neste sentido, a decisão da classificação é encontrada quando o campo local induzido tem valor nulo, conforme a equação abaixo: 𝑘

� 𝑤𝑖 𝑥𝑗 + 𝑏 = 0

(86)

𝑖=1

Pode-se concluir, a partir da equação acima, que existem duas regiões separadas por um hiperplano. Esta fronteira pode ser mais bem ilustrada para o caso de duas variáveis 𝑥1 e

𝑥2 , onde a decisão toma forma de uma linha reta, traçada em um gráfico bidimensional (FIGURA 18). Quando um ponto (𝑥1 , 𝑥2 ) se localiza acima da reta, ele é atribuído à classe ∁1 ,

e quando está abaixo da linha da reta, ele é atribuído à classe ∁2. 𝒙𝟐 Classe ∁2

Classe ∁1

0

𝒙𝟏

Fronteira de decisão 𝑤1 𝑥1 + 𝑤2 𝑥2 + 𝑏 = 0

Figura 18: Ilustração do hiperplano como fronteira de decisão. Fonte: Adaptado de Haykin (2001, p. 163).

Haykin (2001, p. 163) ainda salienta que “o efeito do bias 𝑏 é meramente de deslocar a

fronteira de decisão em relação à origem”.

80

Para que o perceptron funcione adequadamente, as classes ∁1 e ∁2 devem ser

linearmente separáveis, o que significa que os padrões a serem classificados devem estar suficientemente separados entre si, de modo que possa existir um hiperplano que os separe. A Figura 19 permite visualizar a separabilidade linear para um perceptron bidimensional. Em (a), padrões linearmente separáveis e em (b), não linearmente separáveis.

Fronteira de decisão Classe ∁1 Classe ∁2

Classe ∁1

Classe ∁2

(b)

(a)

Figura 19: Padrões separáveis linearmente (a) e não separáveis linearmente (b). Fonte: Adaptado de Haykin (2001, p. 164).

Na Figura 19(a), as classes ∁1 e ∁2 estão suficientemente separadas, o que possibilita

que se desenhe um hiperplano (neste caso uma linha reta) entre elas, como fronteira de decisão. Contudo, se as duas classes se aproximarem muito, como na Figura 19(b), elas se tornam não linearmente separáveis, criando uma situação que se encontra além da capacidade do perceptron.

3.4.7.2 Perceptron de multicamadas

As redes perceptron de múltiplas camadas (MLP, do inglês Multi Layer Perceptron) apresentam uma capacidade computacional muito superior ao das redes perceptron de uma única camada (sem camadas intermediárias), porque possuem a capacidade de tratar dados que não são linearmente separáveis (HAYKIN, 2001). Russell e Norvig (2004, p. 720) ressaltam que:

A vantagem de adicionar camadas ocultas é que ela aumenta o espaço de hipóteses que a rede pode representar. [...] De fato, com uma única camada oculta suficientemente grande, é possível representar qualquer função contínua das entradas com exatidão arbitrária; com duas camadas, até mesmo funções descontínuas podem ser representadas.

81

Uma rede multicamadas, para Hair et al. (2005), compreende três elementos básicos: 1. Os nós, que são o elemento básico das redes neurais, e atua no processamento, em paralelo com os outros nós da rede; 2. A rede neural, que é um arranjo sequencial de três tipos básicos de nós ou camadas: nós (neurônios) de entrada (recebem os dados iniciais e transmitem para a rede), nós intermediários e os nós de saída; 3. E a capacidade de aprendizado, que segundo Hair et al. (2005) é o que realmente diferencia uma rede neural de outras técnicas multivariadas. Neste processo, os valores são propagados pela rede, através de pesos de conexão entre os nós, e os pesos de conexão são ajustados através de um método de aprendizado.

Ludwig Junior e Montgomery (2007) comentam que o perceptron de múltiplas camadas possui uma camada sensorial (entrada), uma ou mais camadas ocultas e uma camada de saída. O sinal se propaga para a frente da camada sensorial até a camada de saída, isto é, a rede é alimentada para a frente (feedforward). Segundo Braga et al. (2011), o papel das multicamadas em uma rede feedforward, como é o caso da rede MLP, é de transformar, sucessivamente, o problema descrito pelos dados no espaço de entrada, em uma representação que seja tratável para a camada de saída. Por exemplo, em um problema não linearmente separável que é resolvido por uma rede de duas camadas, a camada intermediária transforma este em um problema linearmente separável, criando uma nova disposição interna à rede para os dados de entrada. A partir desta disposição, agora linearmente separável, a camada de saída tem condições de resolver o problema descrito no espaço de entrada da rede (BRAGA et al., 2011). Braga et al. (2011) destacam que as duas transformações sucessivas que representam este comportamento são: 𝐻(𝑥, 𝑤𝐻 ), referente à camada intermediária, e 𝑌(𝐻(𝑥, 𝑤𝐻 ); 𝑤𝑠 ), relativa à camada de saída, onde o vetor de peso 𝑤𝐻 corresponde à camada oculta e 𝑤𝑠 é o

vetor de peso que corresponde à camada de saída.

Como pode ser observado na Figura 20, o problema não linearmente separável é transformado em um problema linearmente separável, através do mapeamento realizado pela camada escondida. Sendo que a superfície de separação não linear descrita no espaço de entrada é obtida por meio do mapeamento sucessivo da rede nas duas camadas (BRAGA et al., 2011).

82

Espaço de representação da camada escondida

Espaço de entrada

+

+

𝐻(𝑥, 𝑤𝐻 )

+

Problema não linearmente separável

+

+

+

𝑌(𝐻(𝑥, 𝑤𝐻 ); 𝑤𝑠 ) Saída

Problema linearmente separável

Figura 20: Esquema do mapeamento sucessivo em camadas realizado por uma rede PLP. Fonte: Adaptado de Braga et al. (2011, p. 17).

Neste sentido, Braga et al. (2011) salienta que o mapeamento no espaço relativo à camada oculta separa os elementos da classe “𝑙” dos elementos da classe “+”, possibilitando a resolução do problema por meio de uma reta. O mapeamento da função 𝐻(𝑥, 𝑤𝐻 ) tem como

resultado a superfície não linear, representada no espaço de entrada. A execução da superfície

linear no espaço de representação da camada oculta é realizada pela função 𝑌(𝐻(𝑥, 𝑤𝐻 ); 𝑤𝑠 ) da camada de saída.

3.4.7.3 Algoritmo back-propagation

Braga et al. (2011) explicam que o algoritmo de treinamento mais popular para o perceptron de multicamadas é o de retropropagação do erro (back-propagation) que, por ser supervisionado, ajusta os pesos da rede, através de um mecanismo de correção de erros, utilizando pares de entrada e saída (𝑥, 𝑦𝑑 ). A maioria das perceptron de multicamadas utiliza

variações deste algoritmo.

A aprendizagem por meio do algoritmo back-propagation consiste em dois passos através das camadas da rede, forward e backward. A fase forward (um passo à frente) é a propagação utilizada para definir a saída da rede para certo padrão de entrada. A fase backward (um passo para trás) é a retropropagação, que utiliza a saída desejada e a saída fornecida pela rede para corrigir os pesos das conexões da rede (BRAGA et al., 2011). Nesse sentido, os dados seguem da entrada para a saída (forward) e os erros, da saída para a entrada (backward). Este processo pode ser visualizado na Figura 21.

83

Fase forward

𝑥1

𝑦1

𝑥2

𝑥3

𝑥𝑚

𝑦𝑛

Fase backward

Figura 21: Fluxo de processamento do algoritmo back-propagation. Fonte: Adaptado de Braga et al. (2011, p. 74).

De acordo com Braga et al. (2011), o passo para a frente (forward) envolve as seguintes etapas: 1. O vetor de entrada 𝑥 é apresentado à primeira camada da rede, e as saídas dos

neurônios da primeira camada escondida ∁1 são calculadas;

2. As saídas da camada oculta ∁1 serão destinadas à camada seguinte ∁2 , para que

estas sejam então calculadas. Este processo se repete até que se chegue à última camada ∁𝑘 ;

3. As saídas produzidas pelos neurônios da última camada são então comparadas às

saídas desejadas 𝑦𝑑 para aquele vetor de entrada 𝑥 , e o erro correspondente 𝑦𝑑 − 𝑦 é calculado.

É possível observar que o objetivo na fase forward (passo para a frente) é obter o erro de saída, ao final da propagação do sinal por todas as camadas da rede. Já a fase backward (um passo para trás) envolve as seguintes etapas (BRAGA et al., 2011): 1. O erro encontrado na camada de saída ∁𝑘 é usado para o ajuste de pesos, através do

gradiente descendente de erro (vetor que modifica os pesos sinápticos, na direção oposta à direção de maior aumento do erro médio quadrático, minimizando assim o erro médio quadrático); 2. Os erros dos neurônios da camada de saída ∁𝑘 são enviados para a camada anterior

∁𝑘−1 , e, para isto, são multiplicados os pesos das conexões entre as camadas por seus erros

correspondentes. Tem-se, assim, um erro estimado para cada neurônio da camada oculta, representando uma medida da influência de cada neurônio da camada ∁𝑘−1 no erro da saída da camada ∁𝑘 .

84

3. O erro calculado para o neurônio da camada ∁𝑘−1 é utilizado para ajustar os pesos

por meio do gradiente descendente, de forma semelhante ao procedimento utilizado para a camada ∁𝑘 .

4. Este processo se repete até que os pesos da camada ∁1 sejam ajustados, concluindo-

se, assim, o ajuste dos pesos de toda a rede para o vetor de entrada 𝑥 e sua saída desejada 𝑦𝑑 .

Como mencionado por Braga et al. (2011), o ajuste dos pesos feito pelo algoritmo de retropropagação do erro (back-propagation) é baseado na regra delta proposta por Windrow e Hoff, em 1960, utilizada para treinar redes Adaline. A utilização desse algoritmo, de forma generalizada, para redes de múltiplas camadas, é chamada de regra delta generalizada ou back-propagation. A derivação da regra delta generalizada é semelhante à derivação da regra delta. A esse respeito, Braga et al. (2011) destacam que a função custo a ser minimizada é uma função de erro, que é definida pela soma dos erros quadráticos. O autor demonstra como este procedimento pode ser realizado por meio da dedução de equações (sem perda de generalidade, baseando-se em uma rede de duas camadas), como se segue: Um neurônio 𝑗 possui uma saída linear 𝑝𝑗 , correspondente à soma ponderada de suas

entradas, e uma saída, moralmente não linear 𝑦𝑗 , obtida após a aplicação da função de

ativação sobre 𝑝𝑗 , isto é, 𝑦𝑗 = 𝑓�𝑝𝑗 �. Para diferenciar as respostas dos neurônios das camadas de saída e camadas ocultas, estes últimos terão suas saídas referenciadas como ℎ(𝑝𝑖 ) para um

neurônio qualquer.

𝑗

O erro de neurônio de saída 𝑗 na interação 𝑛 é definido por 𝑖𝑗 (𝑛) = 𝑦𝑑 (𝑛) − 𝑦𝑗 (𝑛),

sendo a soma dos erros quadráticos de todos os neurônios de saída na interação 𝑛 definida pela Equação 87:

𝜀(𝑛) =

1 � 𝑖𝑗2 (𝑛) 2

(87)

𝑗

Como a saída linear do neurônio 𝑗 da camada de saída é definida por 𝑝𝑗 (𝑛) =

∑𝑖 ℎ𝑖 (𝑛) 𝑤𝑗𝑖 (𝑛), sendo o índice 𝑙 referente à camada oculta, pode-se reescrever o erro do 𝑗

neurônio 𝑗 como 𝑖𝑗 (𝑛) = 𝑦𝑑 (𝑛) − 𝑓(𝑝𝑗 (𝑛)) . Assim, a Equação 87 pode ser reescrita

conforme a Equação 88:

85

𝜀(𝑛) =

1 𝑗 �(𝑦𝑑 (𝑛)−𝑓(𝑝𝑗 (𝑛)))2 2

(88)

𝑗

Maiores detalhes sobre as deduções da equação de ajuste da camada de saída e da camada escondida e também das variações do algoritmo de retropropagação do erro (backpropagation) podem ser encontradas na obra de Braga et al. (2011, p. 74-84). HAIR et al. (2005) ressaltam que o objetivo do método de retropropagação é processar uma grande quantidade de casos através da rede neural, na fase de aprendizado, para que desta forma a rede possa realizar as melhores predições possíveis ao longo de todas as observações de entrada. Almeida e Nakao (2007) elucidam que, depois de ter passado por um número suficiente de exemplos da amostra de análise, os pesos na rede não têm mais alterações significativas e o erro não se reduz mais. É neste ponto que o treinamento da rede é encerrado, ou seja, a rede aprendeu a reconhecer as entradas.

3.4.8 Vantagens e limitações das redes neurais

As redes neurais artificiais apresentam algumas vantagens e limitações no que se refere a sua aplicação na solução de problemas. Haykin (2001), Almeida e Nakao (2007) apresentam algumas destas características. Algumas das vantagens apresentadas pelas redes neurais artificiais são: •

Aprendizagem – a rede neural tem a habilidade de aprender acerca de seu ambiente através de um processo interativo de ajustes de seus pesos sinápticos, que são utilizados para armazenar o conhecimento adquirido;



Generalização – é outra importante característica das redes neurais. Isto se dá quando ela apresenta uma saída adequada para uma entrada que não estava presente no processo de treinamento;



Não linearidade – a rede tem capacidade de desenvolver mapas de limites de entradas e saídas não lineares. Uma característica importante sendo que a maioria dos sistemas físicos geram sinais que não são lineares;



Adaptabilidade – é a capacidade de adaptar seus pesos sinápticos diante das modificações no meio ambiente, isto é, a rede treinada para operar em determinado

86

ambiente pode facilmente ser retreinada para absorver pequenas alterações do ambiente; •

Tolerância a falhas – quando implementada na forma física (em hardware), uma rede pode operar mesmo que um de seus neurônios seja danificado. Ou seja, uma parte das conexões pode estar inoperante, sem mudanças significativas no desempenho global da rede;



Resposta a evidências – na classificação de padrões, as redes neurais podem fornecer, em sua saída, não somente informações relativas ao conjunto de entradas, mas também informações sobre a confiança na decisão tomada. Rejeitando-se, assim, padrões ambíguos (caso eles estejam presentes);



Informação contextual – capacidade da rede de processar, de forma natural, as informações contextuais, pois o processamento de um neurônio normalmente é afetado pelo processamento global de todos os outros neurônios;



Uniformidade de análise do desenho – todos os setores que envolvem redes neurais utilizam as mesmas notações, pois em todas existem neurônios e é possível compartilhar teorias e algoritmos de aprendizado.

Entre as limitações das redes neurais artificiais, apontadas pelos autores, são apresentadas as seguintes: •

Interpretação dos pesos – o processo realizado pela rede não informa sobre a importância relativa das variáveis independentes na predição. Isto ocorre devido à combinação não linear dos pesos na camada oculta, não sendo possível a interpretação da variável estatística.



Arquitetura de rede – outro ponto negativo das redes neurais está relacionado com a escolha da arquitetura a ser utilizada. Tal decisão se dá por meio de tentativa e erro, e esta característica pode tornar o processo demorado.

87

4 METODOLOGIA

Conforme esclarece Gil (2010), o método científico é o conjunto de procedimentos intelectuais e técnicos que são adotados para se atingir o conhecimento. Marconi e Lakatos (2005) elucidam que não pode existir ciência sem o devido emprego de algum método científico. A escolha do tipo de pesquisa deve estar relacionada com o objetivo fundamental do estudo (MARCONI; LAKATOS, 2005). Objetivo este que, para o trabalho aqui realizado, é o de gerar um modelo, através da aplicação de redes neurais artificiais, capaz de realizar a análise financeira no ato da concessão de crédito a pessoas jurídicas, utilizando-se tanto do modelo tradicional quanto do modelo dinâmico de análise financeira. A partir destas considerações, o presente estudo se deu por meio de uma pesquisa exploratória (ou estudo exploratório) que, de acordo com Gil (2010), é aquela que tem por finalidade trazer uma melhor compreensão de determinado assunto. Esta pesquisa tem caráter quantitativo, por se tratar de uma modelagem matemática computacional aplicada à área financeira, ou seja, as redes neurais artificiais são sistemas inteligentes, que adquirem conhecimento de forma automática, a partir de exemplos coletados em bancos de dados. Utilizou-se da pesquisa bibliográfica para criar o arcabouço teórico necessário ao embasamento do estudo. Cervo e Bervian (2002) consideram que qualquer espécie de pesquisa requer um levantamento do estado da arte do tema, quer para a fundamentação teórica ou ainda para justificar os limites e contribuições da própria pesquisa. A esse respeito, Marconi e Lakatos (2005) destacam ainda que a finalidade da pesquisa bibliográfica é de propiciar ao pesquisador o contato direto com tudo o que já foi realizado sobre determinado assunto. Outra fonte de dados utilizada no trabalho foi a de dados secundários, que, de acordo com Mattar (2005, p.142), “[...] dados secundários são aqueles que já foram coletados, tabulados, ordenados e, às vezes, até analisados, com propósitos outros ao de atender às necessidades da pesquisa em andamento, e que estão catalogados à disposição dos interessados”. Os dados secundários utilizados neste estudo foram informações econômicofinanceiras de pessoas jurídicas (demonstrações contábeis). Estas informações foram retiradas do trabalho de Carvalho (2004) e constituem-se em uma amostragem por conveniência.

88

Mattar (2005) frisa que, amostras por conveniência são escolhidas por alguma conveniência do pesquisador e utilizadas para testar ideias ou obtê-las sobre determinado assunto de interesse. Os dados trabalhados neste tipo de amostragem não probabilística são selecionados por estarem disponíveis no local e no momento em que a pesquisa estava sendo realizada. A amostra de Carvalho (2004, p. 70) se refere a empresas do setor comercial (sendo 50 solventes e 50 insolventes) colhidas no período de 2001, 2002 e 2003. Já para as empresas insolventes, os dados são referentes a um ano antes (horizonte de tempo) da respectiva falência de cada empresa. "A situação de solvência ou insolvência das empresas foi verificada em dezembro de 2003”. Observa-se que a segmentação da amostra por setor de atuação (comercial) tem como único objetivo tentar melhorar a acurácia do modelo. Como elucida Silva (2008), a escolha da amostra constitui-se numa das partes mais importantes para a criação de um modelo, sendo a escolha de um ramo entre os diversos ramos de atividade, um dos fatores a ser considerado. Cabe lembrar que, no estudo desenvolvido por Silva (1982) apud Mário (2002), foram testadas todas as combinações possíveis entre 85 variáveis (índices), chegando-se a índices financeiros diferentes (Modelo Tradicional de análise), para empresas do setor comercial e para empresas do setor industrial, o que fundamenta a escolha do setor para a análise. Marconi e Lakatos (2005), entretanto, ressaltam que a amostragem tem como finalidade escolher uma parte (amostra), de tal forma que esta seja a mais representativa possível do todo e, a partir dos resultados encontrados, relativos a essa parte, poder inferir nos resultados da população total (se esta for verificada). Neste sentido, foram utilizadas duas amostras para a criação do presente modelo: uma contendo empresas solventes e outra contendo empresas insolventes. Através destes dois grupos (solvente e insolvente), foi possível criar uma modelagem capaz de separar, em um momento futuro, empresas solventes de empresas insolventes, a partir de suas características.

4.1 A escolha das variáveis do modelo tradicional

Para representar o modelo tradicional de análise financeira, foram utilizados os indicadores desenvolvidos por Silva (1982) apud Mário (2002), como demonstrados no tópico “2.3.4.6 O modelo de Pereira (1982)”.

89

Neste trabalho, o autor utilizou, no desenvolvimento de modelos de previsão de insolvência, um total de 85 índices. Entretanto, na análise verificou-se que, à medida que o estudo evoluiu, foi ficando óbvio que a redução do número de índices utilizados não enfraquecia a qualidade dos modelos, na mesma proporção da redução do número de índices. Por este método, Silva (1982) apud Mário (2002) encontrou, a partir da metodologia estatística denominada de análise discriminante, equações com seis índices cada, tanto para um ano antes do ocorrido da insolvência, como para dois anos antes da insolvência, e também distinguiu seus modelos entre empresas comerciais e empresas industriais. No presente estudo, foram utilizadas as seis variáveis definidas por Silva (1982) apud Silva (2012), como sendo as mais relevantes para classificação de crédito de empresas comerciais, e que apresentaram um melhor escore discriminante para a previsão da insolvência no próximo exercício (um ano antes da falência). As equações, como já demonstradas anteriormente, são as seguintes: 𝑋1 = 𝑋3 =

𝑅𝑒𝑠𝑒𝑟𝑣𝑎𝑠 + 𝐿𝑢𝑐𝑟𝑜𝑠 𝑆𝑢𝑠𝑝𝑒𝑛𝑠𝑜𝑠 𝐴𝑡𝑖𝑣𝑜 𝑇𝑜𝑡𝑎𝑙 𝐷𝑖𝑠𝑝𝑜𝑛í𝑣𝑒𝑙

𝑋2 = 𝐴𝑡𝑖𝑣𝑜 𝑇𝑜𝑡𝑎𝑙

𝐴𝑡𝑖𝑣𝑜 𝐶𝑖𝑟𝑐𝑢𝑙𝑎𝑛𝑡𝑒 −𝐷𝑖𝑠𝑝𝑜𝑛í𝑣𝑒𝑙 − 𝑃𝑎𝑠𝑠𝑖𝑣𝑜 𝐶𝑖𝑟𝑐𝑢𝑙𝑎𝑛𝑡𝑒 + 𝐹𝑖𝑛𝑎𝑛𝑐𝑖𝑎𝑘𝑒𝑛𝑡𝑜𝑠 + 𝐷𝑢𝑝𝑙𝑖𝑐𝑎𝑡𝑎𝑠 𝐷𝑒𝑠𝑐𝑜𝑛𝑡𝑎𝑑𝑎𝑠 𝑉𝑒𝑛𝑑𝑎𝑠 𝐿𝑢𝑐𝑟𝑜 𝑂𝑝𝑒𝑟𝑎𝑐𝑖𝑜𝑛𝑎𝑙 + 𝐷𝑒𝑠𝑝𝑒𝑠𝑎𝑠 𝐹𝑖𝑛𝑎𝑛𝑐𝑒𝑖𝑟𝑎𝑠 𝐼𝑛𝑣𝑒𝑠𝑡𝑖𝑘𝑒𝑛𝑡𝑜𝑠 𝐼𝑛𝑖𝑐𝑖𝑎𝑙 + 𝐼𝑛𝑣𝑒𝑠𝑡𝑖𝑘𝑒𝑛𝑡𝑜𝑠 𝐹𝑖𝑛𝑎𝑙 − 2 2

𝑋4 = 𝐴𝑡𝑖𝑣𝑜 𝐼𝑛𝑖𝑐𝑖𝑎𝑙 + 𝐴𝑡𝑖𝑣𝑜 𝐹𝑖𝑛𝑎𝑙

𝑋6 =

𝑋5 =

𝐿𝑢𝑐𝑟𝑜 𝑂𝑝𝑒𝑟𝑎𝑐𝑖𝑜𝑛𝑎𝑙 𝐿𝑢𝑐𝑟𝑜 𝐵𝑟𝑢𝑡𝑜

𝑃𝑎𝑡𝑟𝑖𝑘ô𝑛𝑖𝑜 𝐿í𝑞𝑢𝑖𝑑𝑜 𝑃𝑎𝑠𝑠𝑖𝑣𝑜 𝐶𝑖𝑟𝑐𝑢𝑙𝑎𝑛𝑡𝑒 + 𝑃𝑎𝑠𝑠𝑖𝑣𝑜 𝑛ã𝑜 𝐶𝑖𝑟𝑐𝑢𝑙𝑎𝑛𝑡𝑒 𝐿𝑢𝑐𝑟𝑜 𝐵𝑟𝑢𝑡𝑜 X 100 𝑉𝑒𝑛𝑑𝑎𝑠 𝑃𝑀𝑅𝐸 + 𝑃𝑀𝑅𝑉 − 𝑃𝑀𝑃𝐶

(59) (61) (63) (66) (67)

(68)

Maiores detalhes sobre critérios utilizados para o cálculo das variáveis citadas acima podem ser encontrados no Anexo A. Devido à diferença entre nomenclatura de determinadas contas, optou-se por utilizar, neste caso, apenas as obras de Silva (2008) e Silva (2012), como referência, evitando-se, assim, possíveis confusões em relação às contas utilizadas para o cálculo das variáveis em questão.

90

4.2 A escolha das variáveis do modelo dinâmico

Já no que diz respeito ao modelo dinâmico de análise financeira, serão utilizados os índices testados por Sanvicente e Minardi (1998) e por Carvalho (2004), como apresentado no tópico “2.3.4.7 Outros estudos relevantes”. Estes estudos partem das observações realizadas por Assaf Neto e Silva (2012), em que os autores, embasados pelos estudos de Fleuriet et al. (1978), salientam a importância do modelo dinâmico e afirmam que a dinâmica do overtrading é a mais apropriada para identificar problemas futuros de insolvência. Como demonstrado anteriormente, tanto Carvalho (2004) quanto Sanvicente e Minardi (1998) utilizam a variável X7 aqui demonstrada como um indicador de liquidez, que ao relacionar ativos e passivos operacionais, com o ativo total, retrata a Necessidade de Capital de Giro da empresa.

𝑋7 =

𝐴𝑡𝑖𝑣𝑜 𝐶𝑖𝑟𝑐𝑢𝑙𝑎𝑛𝑡𝑒 𝑂𝑝𝑒𝑟𝑎𝑐𝑖𝑜𝑛𝑎𝑙 – 𝑃𝑎𝑠𝑠𝑖𝑣𝑜 𝐶𝑖𝑟𝑐𝑢𝑙𝑎𝑛𝑡𝑒 𝑂𝑝𝑒𝑟𝑎𝑐𝑖𝑜𝑛𝑎𝑙 𝐴𝑡𝑖𝑣𝑜 𝑇𝑜𝑡𝑎𝑙

(72)

Outro indicador de liquidez abordado pelos autores, em seus respectivos trabalhos, é a variável X8, que representa o Saldo de Tesouraria da empresa. 𝑋8 =

𝐴𝑡𝑖𝑣𝑜 𝐶𝑖𝑟𝑐𝑢𝑙𝑎𝑛𝑡𝑒 𝐹𝑖𝑛𝑎𝑛𝑐𝑒𝑖𝑟𝑜 – 𝑃𝑎𝑠𝑠𝑖𝑣𝑜 𝐶𝑖𝑟𝑐𝑢𝑙𝑎𝑛𝑡𝑒 𝐹𝑖𝑛𝑎𝑛𝑐𝑒𝑖𝑟𝑜 𝐴𝑡𝑖𝑣𝑜 𝑇𝑜𝑡𝑎𝑙

(73)

A escolha das variáveis 𝑋7 e 𝑋8 que, representando o modelo dinâmico, juntamente

com as variáveis 𝑋1 , 𝑋2 , 𝑋3 , 𝑋4 , 𝑋5 e 𝑋6 apresentadas no tópico anterior e extraídas do

modelo tradicional, busca resolver a necessidade de integração (complementaridade desejada) entre os dois modelos de análise financeira, como recomendado por Brasil e Brasil (2008).

4.3 Redes neurais artificiais

Para a utilização das redes neurais artificiais, algumas considerações devem ser feitas acerca da configuração necessária à rede, tendo, como base, o problema apresentado. A fim de que esta, a partir de dados existentes, possa ser treinada e consiga adquirir conhecimento

91

sobre certo assunto, é preciso observar quais os parâmetros necessários ao tipo específico de aprendizado a que se propõe a rede. Braga et al. (2011) afirmam que, entre as diversas aplicações das redes neurais, encontra-se a classificação de padrões, onde a rede classifica um padrão desconhecido em classes distintas. Assim, ao se deparar com um padrão desconhecido, a rede deve classificá-lo em uma das classes existentes (aqui definidas como solvente e insolvente). Para se classificar em solvente ou insolvente, no presente trabalho, foi utilizada a rede do tipo perceptron de múltiplas camadas (MLP – Multi Layer Perceptron) que, segundo Braga et al. (2011), pode ser genericamente otimizada para lidar com a análise de crédito de pessoas jurídicas em uma classificação financeira. IBM (2012) ainda ressalta que, para um processo subjacente e complexo, como é o risco de concessão de crédito, utilizam-se redes neurais, tais como, o perceptron de múltiplas camadas. Já para o algoritmo de treinamento, foi utilizado o de retropropagação do erro (backpropagation) que, de acordo com Braga et al. (2011), é o mais utilizado para redes perceptron de multicamadas. Este algoritmo se constitui em uma técnica de aprendizado e é o mais largamente utilizado para aprendizagem supervisionada, ajustando os pesos da rede através de um mecanismo de correção de erros. A maioria das perceptron de multicamadas utiliza variações deste algoritmo. O perceptron aqui utilizado teve uma arquitetura alimentada adiante com múltiplas camadas (feedforward com uma camada oculta). Segundo a IBM (2012), esta estrutura é conhecida como uma arquitetura feedforward, porque as conexões da rede seguem um fluxo para a frente, a partir da camada de entrada até a camada de saída, sem qualquer loop de feedback. A camada de entrada conteve os preditores que no presente caso são as variáveis 𝑋1,

𝑋2 , 𝑋3 , 𝑋4 , 𝑋5 , 𝑋6 𝑋7 e 𝑋8 índices econômico-financeiros de empresas brasileiras, que

representaram o modelo tradicional e o modelo dinâmico de análise.

A camada oculta contém nós não observáveis (neurônios ocultos), ou unidades. Cada neurônio da segunda camada oculta é uma função das unidades na primeira camada oculta, e cada resposta é uma função das unidades na segunda camada escondida (IBM, 2012). A camada de saída contém as respostas, duas classes, solvente ou insolvente, referente à situação da empresa. De acordo com IBM (2012), cada unidade de saída é uma função das unidades escondidas.

92

Haykin (2001) argumenta que, ao adicionar uma ou mais camadas ocultas à rede, torna-se capaz de extrair estatísticas de ordem elevada, adquirindo uma perspectiva global devido ao seu número extra de conexões sinápticas. Entretanto, mesmo sabendo o número de valores de entrada (preditores) e o tipo e quantidade de saídas possíveis, a quantidade de neurônios na camada oculta é definida pelo processo de tentativa e erro. Russell e Norvig (2004, p. 721) comentam que “o problema de escolher, com antecedência, o número correto de unidades ocultas, ainda não está bem compreendido”. Sobre este assunto, Braga et al. (2011, p. 71) afirmam que “a determinação do número de neurônios é, na verdade, o problema mais fundamental em aprendizado de redes neurais, e motiva boa parte das pesquisas na área. Não se pode dizer que haja, na literatura, uma regra geral que determine, de forma precisa, qual deve ser o número de neurônios de uma rede neural para resolução de determinado problema”. Almeida e Nakao (2007, p. 450) ainda esclarecem que, na área de negócios, é comum utilizar uma única camada intermediária. Contudo, o número de neurônios nessa camada pode variar bastante. Na prática, o procedimento para encontrar a melhor rede é por meio de tentativa e erro. “Esta é uma etapa laboriosa, pois pode-se acabar criando um número muito grande de redes”. Outra característica fundamental da rede neural está relacionada com a função de ativação que é utilizada. Aqui, utiliza-se a função de ativação sigmóide (logsig – função logística sigmóide), para a camada oculta e para a camada de saída, tendo em consideração que, no perceptron de múltiplas camadas, devem-se utilizar funções de ativação não lineares nas camadas intermediarias, possibilitando que as camadas sucessivas sejam capazes de resolver problemas de maior ordem, no espaço de entrada, conforme salientado por Braga et al. (2011). Em problemas de classificação, as redes perceptron de múltiplas camadas se caracterizam por utilizarem funções de ativação sigmóide nas camadas intermediárias e na camada de saída (o que não ocorre, por exemplo, com problemas de aproximação onde normalmente se usa na saída funções lineares), apesar de esta não ser uma regra geral (BRAGA et al., 2011). A configuração básica pretendida para a criação da rede neural artificial pode ser observada no Quadro 5, que disponibiliza, em termos gerais, as características da modelagem que se pretende desenvolver neste estudo.

93

HIPÓTESE DE CONFIGURAÇÃO DA REDE NEURAL Aplicação Classificação Rede neural artificial MLP Arquitetura feedforward Tipo de aprendizagem supervisionada Algoritmo de treinamento back-propagation Número de dados preditores

8

Número de camadas ocultas Número de neurônios ocultos Função de ativação utilizada na camada escondida

1 “X” sigmóide (logsig)

Número de neurônios de saída Função de ativação utilizada na camada saída Quadro 5: Hipótese de configuração da Rede Neural. Fonte: Elaborado pelo autor.

2 sigmóide (logsig)

Braga et al. (2011) ressaltam que o poder de classificação da rede neural pode ser avaliado, submetendo a rede a padrões diferentes daqueles utilizados no treinamento. Durante esta etapa, deve ser observado o número de acertos realizados pela rede (classificador) para um conjunto de padrões cujas classes sejam conhecidas. Para avaliar o desempenho da rede, devem-se apresentar as porcentagens de classificações corretas (taxa de acerto).

4.4 Pacote estatístico utilizado

Para o desenvolvimento do modelo de redes neurais artificiais, é utilizado o SPSS 20.0 (Statistical Package for Social Science). Este software é uma ferramenta de análise de dados, que pode ser aplicado na resolução do problema aqui apresentado. Este é um sistema completo para análise de dados e possui um módulo (completamente integrado ao sistema) que oferece várias técnicas analíticas para as redes neurais artificiais. As opções de configuração do SPSS permitem explorar todos os aspectos levantados anteriormente para a modelagem aqui realizada. É em sua plataforma que os dados são inseridos e configurados no modelo de redes neurais. Entretanto, uma vez que estes dados foram manipulados e os resultados foram obtidos, é preciso seguir para o próximo passo, que é o da análise e interpretação dos mesmos (MARCONI; LAKATOS, 2005).

94

5 RESULTADOS E DISCUSSÃO

Neste capítulo, serão demonstrados os resultados obtidos a partir dos procedimentos realizados para a construção do modelo de redes neurais artificiais, incluindo a estrutura final (melhor configuração) da rede neural, para a criação do modelo. Também ocorrerá a comparação entre um modelo de previsão criado apenas com as variáveis do modelo tradicional de análise financeira, com outro modelo de previsão criado com as variáveis do modelo tradicional e as variáveis do modelo dinâmico de análise financeira. Esta comparação visa a avaliar a integração entre o modelo dinâmico e o modelo tradicional de análise financeira, e também verificar a contribuição dos índices pertencentes ao modelo dinâmico para o modelo de previsão gerado.

5.1 Criando e definindo o melhor modelo com redes neurais

Definidas as variáveis (índices econômico-financeiros) e selecionada a amostra (empresas solventes e insolventes), pode-se dar início ao processo de modelagem, utilizandose das redes neurais artificiais. Todo este procedimento é realizado no SPSS 20.0 (Statistical Package for Social Science), que possui, neste módulo, como opcional (integrado ao sistema), a técnica analítica das redes neurais artificiais necessárias ao presente estudo. Após vários testes, chegou-se a dois modelos de avaliação da insolvência empresarial. O primeiro modelo foi criado a partir, tanto das variáveis do modelo tradicional quanto das variáveis do modelo dinâmico de análise financeira, e será denominado como Modelo – MT&D. O segundo modelo foi criado somente com as variáveis do modelo tradicional e será apresentado como Modelo – MT. No Quadro 6, são apresentados os parâmetros de saída das configurações realizadas no SPSS. Nesta seção de análise do programa, são demonstradas várias das configurações realizadas antes da criação do modelo. Cabe ressaltar que estas foram as melhores configurações encontradas para a criação do Modelo – MT&D e do Modelo – MT, após serem avaliadas diversas configurações possíveis. Acredita-se, entretanto, que se tenha encontrado a melhor configuração para a criação dos presentes modelos.

95

MODELO – MT&D (Modelo Tradicional e Modelo Dinâmico)

MODELO – MT (Modelo Tradicional)

*Multilayer Perceptron Network. MLP Classg (MLEVEL=N) WITH X1 X2 X3 X4 X5 X6 X7 X8 /RESCALE COVARIATE=STANDARDIZED /PARTITION VARIABLE=partition /ARCHITECTURE AUTOMATIC=NO HIDDENLAYERS=1 (NUMUNITS=4) HIDDENFUNCTION=SIGMOID OUTPUTFUNCTION=SIGMOID /CRITERIA TRAINING=BATCH OPTIMIZATION=SCALEDCONJUGATE LAMBDAINITIAL=0.0000005 SIGMAINITIAL=0.00005 INTERVALCENTER=0 INTERVALOFFSET=0.5 MEMSIZE=1000 /PRINT CPS NETWORKINFO SUMMARY CLASSIFICATION SOLUTION IMPORTANCE /PLOT NETWORK ROC GAIN LIFT PREDICTED /STOPPINGRULES ERRORSTEPS= 1 (DATA=AUTO) TRAININGTIMER=ON (MAXTIME=15) MAXEPOCHS=AUTO ERRORCHANGE=1.0E-4 ERRORRATIO=0.0010 /MISSING USERMISSING=EXCLUDE.

*Multilayer Perceptron Network. MLP Classg (MLEVEL=N) WITH X1 X2 X3 X4 X5 X6 /RESCALE COVARIATE=STANDARDIZED /PARTITION VARIABLE=partition /ARCHITECTURE AUTOMATIC=NO HIDDENLAYERS=1 (NUMUNITS=4) HIDDENFUNCTION=SIGMOID OUTPUTFUNCTION=SIGMOID /CRITERIA TRAINING=BATCH OPTIMIZATION=GRADIENTDESCENT LEARNINGINITIAL= 0.4 MOMENTUM= 0.9 INTERVALCENTER=0 INTERVALOFFSET=0.5 MEMSIZE=1000 /PRINT CPS NETWORKINFO SUMMARY CLASSIFICATION SOLUTION IMPORTANCE /PLOT NETWORK ROC GAIN LIFT PREDICTED /STOPPINGRULES ERRORSTEPS= 1 (DATA=AUTO) TRAININGTIMER=ON (MAXTIME=15) MAXEPOCHS=AUTO ERRORCHANGE=1.0E-4 ERRORRATIO=0.0010 /MISSING USERMISSING=EXCLUDE.

Quadro 6: Parâmetros de saída das configurações realizadas no SPSS . Fonte: Dados da pesquisa (Output do SPSS v.20).

Alguns dos parâmetros apresentados no Quadro 6 são bastante relevantes para uma melhor compreensão dos modelos aqui apresentados. Alguns destes são: RESCALE COVARIATE=STANDARDIZED – O ajuste das covariáveis que, neste caso, optou-se por padronizá-las, evitando assim alguma discrepância nos dados. Este método se consiste em: de posse do índice 𝑥𝑗 de cada empresa, subtrai-se deste a média e divide pelo

desvio-padrão de sua respectiva amostra, (𝑥 − 𝑠𝑖𝑎𝑛) / 𝑙.

PARTITION VARIABLE=partition – Consiste na divisão da amostra, onde foi definido

que aproximadamente 70% dos dados da amostra seriam designados para a amostra de treinamento e 30% para uma amostra de validação. O que permite avaliar o desempenho da rede neural é apresentar esta a um novo conjunto de dados (que se conheça a priori sua classificação), depois de seu treinamento, e verificar a sua porcentagem de acertos. CRITERIA TRAINING=BATCH – O critério de treinamento utilizado foi o de Lote, que ,de acordo com IBM (2012), consiste no processo onde os pesos sinápticos só são atualizados depois que todos os registros dos dados passam pelo treinamento, isto é, a formação de lote usa informações de todos os registros no conjunto de dados de treinamento para atualizar os pesos. Na Tabela 3, é apresentada a divisão da amostra em amostra de treinamento e amostra de validação. Tanto no caso do Modelo – MT&D, quanto do Modelo – MT, a divisão da amostra foi a mesma para treinamento e para validação, sendo 68% dos casos para treinamento e 32% dos casos para validação, não ocorrendo a exclusão de nenhum caso.

96

Tabela 3 – Resumo do processamento de caso. MODELO – MT&D N Porcentagem Amostra Treinamento 68 68% Validação 32 32% Válido 100 100% Excluídos 0 Total 100 Fontes: Dados da pesquisa (adaptado do output do SPSS v.20).

MODELO – MT N Porcentagem 68 68% 32 32% 100 100% 0 100

Grande parte da configuração da rede neural pode ser observada na Tabela 4 (Informações de rede), onde se encontram diversas especificações. Observa-se que as covariáveis (número de unidades) representam os índices econômico-financeiros, sendo oito (8) para o Modelo – MT&D e seis (6) para o Modelo – MT. Quanto à arquitetura, foi definida apenas uma camada oculta para cada um dos modelos. Entretanto, cabe ressaltar que outras arquiteturas foram testadas sem maiores sucessos. Já a camada oculta com quatro neurônios (unidades) foi a que representou maior poder de classificação nos testes realizados para os dois modelos 2. A função de ativação dos modelos utilizada foi a função sigmóide, tanto na camada oculta como na camada de saída, por apresentar melhor desempenho do que outras funções testadas. Tabela 4 – Informações de rede. Camada de entrada

Covariáveis

1 2 3 4 5 6 7 8

Número de unidadesª Método de reescalonamento para covariáveis Camadas ocultas Número de camadas ocultas Número de unidades na camada oculta 1ª Função de ativação Camada de saída Variáveis dependentes 1 Número de unidades Função de ativação Função de erro a. Excluindo a unidade de propensão Fontes: Dados da pesquisa (adaptado do output do SPSS v.20).

2

MODELO – MT&D MODELO – MT X1 X1 X2 X2 X3 X3 X4 X4 X5 X5 X6 X6 X7 X8 8 6 Padronizado Padronizado 1 1 4 4 Sigmóide Sigmóide Classg Classg 2 2 Sigmóide Sigmóide Soma dos quadrados Soma dos quadrados

Para o Modelo – MT&D, outras configurações contendo oito (8) e seis (6) neurônios (unidades) na camada oculta, também alcançaram índices de previsão de 100%, entretanto optou-se por demonstrar o modelo com quatro (4) neurônios na camada oculta, por este apresentar menor número de erros quadráticos em um dos casos, e por apresentar uma estatística mais robusta de avaliação em outro caso.

97

A estrutura da rede neural é de grande valia para entender a arquitetura geral da rede. A IBM (2012) frisa que, o perceptron de multicamadas (MLP) é uma função de preditores (variáveis independentes ou insumos) que minimizam o erro de predição das variáveis-alvo (saídas). Na Figura 22, pode-se observar a estrutura pré-definida de arquitetura feedforward, para os dois modelos criados com as seguintes características, a saber: A camada de entrada contém os preditores, índices econômico-financeiros, sendo que, no Modelo – MT&D, encontram-se as variáveis 𝑥1 até a 𝑥8 e, no Modelo – MT, encontram-se

apenas as variáveis do modelo tradicional de 𝑥1 a 𝑥6 .

Para a camada oculta, utilizou-se apenas uma camada, que contém unidades não

observáveis, e o valor de cada unidade escondida é alguma função dos preditores. Já a camada de saída (variável categórica) contém as respostas, solvente ou insolvente. Sendo que cada neurônio de saída é uma função das unidades escondidas.

MODELO – MT&D MODELO – MT

Figura 22: Arquitetura feedforward (Modelo – MT&D e Modelo – MT) com uma camada oculta. Fontes: Dados da pesquisa (adaptado do output do SPSS v.20).

Como pode ser visto na figura acima, as conexões sinápticas de cor azul representam pesos menores do que zero (0) e as conexões sinápticas de cor cinza os pesos maiores do que zero. Pode-se observar também, que o tamanho de cada caixa onde estão inseridos os índices, (𝑋1 a 𝑋8 e os índices de 𝑋1 a 𝑋6) representa a importância de cada um dos preditores (variável

de entrada) para o modelo.

98

A relevância de cada índice econômico-financeiro, para os modelos gerados, pode ser mais bem compreendida na Tabela 5, onde são apresentados os índices por critério de importância e importância normalizada (percentual). Segundo a IBM (2012), a importância normalizada é simplesmente o cálculo dos valores de importância, dividido pelos maiores valores de importância e expresso em porcentagens.

Tabela 5 – Importância da variável independente. MODELO – MT&D Importância Importância normalizada X1 0,172 90,9% X2 0,187 98,9% X3 0,009 4,8% X4 0,107 56,7% X5 0,189 100,0% X6 0,070 36,9% X7 0,093 49,1% X8 0,172 91,0% Fontes: Dados da pesquisa (adaptado do output do SPSS v.20).

MODELO – MT Importância Importância normalizada 0,207 78,5% 0,263 100,0% 0,072 27,5% 0,202 76,6% 0,217 82,6% 0,039 14,7% -

Entre as variáveis do modelo tradicional de análise financeira, pertencentes ao Modelo – MT, as variáveis que apresentaram maior relevância para o modelo em questão foram as variáveis 𝑋2 (índices de estrutura de capitais), 𝑋5 (índices de rentabilidade) com 100% e 82,6% respectivamente. Neste caso, 𝑋2 parece representar quase que sozinha o modelo.

Já quando integrado o modelo tradicional com o modelo dinâmico de análise (Modelo

– MT&D), as variáveis que apresentam maiores contribuições são 𝑋5 (índices de rentabilidade) com 100%, 𝑋2 (índices de estrutura de capitais) com 98,9% e 𝑋8 (índices de liquidez) com 91%. O que demonstra a importância da variável 𝑋8 para a análise, ao melhorar o desempenho de algumas variáveis simultaneamente, tornando o modelo mais coeso.

Outro output importante do programa é o resumo do modelo. Este apresenta informações acerca dos resultados do treinamento e aplica a amostra de validação à rede encontrada (rede final), possibilitando, assim, saber o percentual de predições incorretas. A soma dos erros quadráticos é mostrada, por ter-se utilizado a função de ativação sigmoide, tanto na camada oculta como na camada de saída. Para os dois modelos, os erros quadráticos apresentam taxas baixas, sendo de 0,015 para o Modelo – MT&D e de 0,071 para o Modelo – MT. Segundo IBM (2012), esta é a função de erro que a rede tenta minimizar durante o treinamento. Como pode ser visto, para o Modelo – MT&D, na regra de parada utilizada, o treinamento foi interrompido porque o erro convergiu. Já para o Modelo – MT, o número de

99

períodos foi ultrapassado sem que o Modelo conseguisse convergir o erro. Entretanto, observa-se que, nos treinamentos realizados para a obtenção do Modelo – MT, outros modelos conseguiram convergir o erro, contudo não apresentaram melhor taxa de previsões incorretas. Para encontrar a porcentagem de previsões incorretas para o modelo gerado, utilizouse a amostra de validação. Nota-se que, no Modelo – MT&D, não houve previsões incorretas, todavia o Modelo – MT apresentou um percentual de 3,1% de previsões incorretas. Estes dados podem ser mais bem visualizados na Tabela 6, logo abaixo.

Tabela 6 – Resumo do modelo. Treinamento Soma dos erros quadráticos Porcentagem de previsões incorretas Regra de parada utilizada

MODELO – MT&D 0,015

MODELO – MT 0,071

0,0%

0,0%

Critério de proporção de erro de treinamento (0,001) obtido

Número máximo de períodos (100) excedido

Tempo de treinamento 0:00:00,00 Validação Porcentagem de previsões incorretas 0,0% Variável dependente: Classg Fontes: Dados da pesquisa (adaptado do output do SPSS v.20).

0:00:00,02 3,1%

Os resultados práticos de se utilizar a rede neural artificial podem ser vistos na Tabela 7, na qual, para cada caso classificado como sim, o neurônio é ativado com função de ativação sigmoide, isto é, quando o seu limiar atinge valor igual ou superior a 0,5. No entanto, na validação cruzada, as células que se encontram na diagonal representam previsões corretas, e as células fora da diagonal são predições incorretas. Como pode ser visto, para o Modelo – MT&D e para o Modelo – MT, a amostra de treinamento obteve 100% de acerto, classificando os 34 casos (de empresas) solventes como solventes e os 34 insolventes como insolventes. Já para a amostra de validação, o Modelo – MT&D convergiu em 100% de acerto global, enquanto o Modelo – MT apresentou erro Tipo II, classificando um caso que era solvente como insolvente, ficando com acerto global de 96,9%. IBM (2012) explana que classificações baseadas em casos usados para criar o modelo tendem a ser demasiadamente “otimistas”, no sentido de que a sua taxa de classificação é inflada, devido à amostra ser a mesma do treinamento. Nesse sentido, a amostra de validação ajuda a validar, de forma correta, o modelo.

100

Tabela 7 – Percentual de classificação das redes neurais artificiais Previsto para MODELO – MT&D Previsto para MODELO – MT Porcentagem Porcentagem Solvente Insolvente Solvente Insolvente Amostra Observado correta correta Treinamento Solvente 34 0 100% 34 0 100% Insolvente 0 34 100% 0 34 100% Porcentagem global 50% 50,0% 100% 50% 50% 100% Validação Solvente 16 0 100% 15 1 93,8% Insolvente 0 16 100% 0 16 100% Porcentagem global 50% 50,0% 100% 46,9% 53,1% 96,9% Variável dependente: Classg Fontes: Dados da pesquisa (adaptado do output do SPSS v.20).

Por fim, são apresentadas as estimativas de parâmetro para Modelo – MT&D, que é formado pelas variáveis do modelo tradicional e pelo modelo dinâmico de análise financeira, devido ao fato de este ter apresentado melhor porcentual e classificação em relação ao Modelo – MT, que era composto apenas por índices do modelo tradicional de análise (TABELA 8). A “Propensão” demonstrada na tabela abaixo se equivale ao Bias, que para a rede funciona como um peso sináptico, como demonstrado no funcionamento do neurônio artificial (Capítulo 3.4.3).

Tabela 8 – Estimativas do parâmetro (Matrizes de coeficientes ou pesos de conexão). Previsto Camada oculta 1 Camada de saída Previsor H(1:1) H(1:2) H(1:3) H(1:4) [Classg=0] [Classg=1] Camada de entrada (Propensão) 0,893 -0,920 1,430 -1,012 X1 -0,866 1,937 4,377 1,894 X2 -1,743 1,975 -6,123 1,552 X3 -0,043 -0,295 -0,397 -0,040 X4 -0,595 1,544 -0,957 1,404 X5 -2,201 1,398 -4,308 2,155 X6 -0,318 0,536 1,628 0,798 X7 0,119 -0,613 -2,459 -0,722 X8 -1,624 2,942 -3,866 1,802 Camada oculta 1 (Propensão) -0,397 0,370 H(1:1) -2,586 2,719 H(1:2) 3,094 -2,919 H(1:3) -9,650 9,585 H(1:4) 2,787 -2,889 Fontes: Dados da pesquisa (adaptado do output do SPSS v.20).

Observa-se, na tabela acima, que, quando a “Classg=0” for ativada, a empresa será considerada solvente pelo modelo e, sendo assim, merecedora de crédito junto à instituição. Já quando a “Classg=1” for ativada, a empresa será considerada insolvente, ficando esta impossibilitada de tomar crédito junto à instituição credora.

101

6 CONCLUSÕES E RECOMENDAÇÕES

6.1 Conclusões

Em virtude dos vários aspectos observados para o embasamento e a construção do presente modelo, pode-se concluir que as redes neurais artificiais são capazes de prever a solvência e a insolvência de empresas, minimizando, desta forma, as perdas para as instituições credoras. Através de vários testes, observou-se que a melhor configuração para a presente rede neural artificial não se diferenciou da estrutura proposta na metodologia do trabalho, e que foi embasada pela teoria utilizada (como pode ser visto no Quadro 5; Capitulo “4.3 Redes neurais artificiais”). Observa-se que a definição dos índices econômico-financeiros, a partir do modelo tradicional e do modelo dinâmico de análise financeira, demonstrou bons resultados, sendo estes os indicadores utilizados para gerar os modelos de comparação: Modelo – MT, que possuía variáveis do modelo tradicional e Modelo – MT&D, com variáveis do modelo tradicional e do modelo dinâmico de análise financeira. As variáveis mais importantes para o trabalho foram: 𝑋2 um índice de estrutura de

capital, que representa qual a liquidez imediata possui o patrimônio da empresa (ativo total),

sendo que, neste caso, as empresas insolventes apresentaram índices menores do que as empresas solventes. O Modelo – MT apresentou, para esta variável, 100% de importância. Já para o Modelo – MT&D, este índice obteve 98,9% de importância. Outra variável importante para os dois modelos foi o índice 𝑋5, que é um índice de

rentabilidade. Entretanto, aqui, pode ser especificado como sendo um demonstrativo de rentabilidade bruta, ao comparar qual é o porcentual de lucro gerado pela operação da empresa, dividindo o lucro operacional pelo lucro bruto. Neste sentido, quanto maior for este indicador, mais solvente será a empresa, pois apresentará um maior lucro da operação, ou seja, lucro gerado por sua atividade fim. Todavia, se a operação não gera lucro, a empresa encaminha-se para um estado de insolvência, pois a empresa não estará gerando lucro que resulte no aumento de seu patrimônio. Para o Modelo – MT, o índice 𝑋5 obteve representatividade de 82,6%, enquanto para o Modelo – MT&D alcançou 100% de importância.

102

No modelo – MT&D, ao se utilizar as variáveis 𝑋7 e 𝑋8 do modelo dinâmico de

análise financeira, ficou claro que o modelo de avaliação de crédito apresentou mais ênfase à variável 𝑋8, com classificação de importância de 91%, contra 49,1% da variável 𝑋7.

Este fato pode ser interpretado pela seguinte ótica: apesar das duas variáveis (𝑋7 e 𝑋8)

serem índices de liquidez, a variável 𝑋8 está relacionada com as operações financeiras da empresa, e estas acarretam, em juros, que são maiores para empresas insolventes.

O ativo financeiro da empresa pode ser encarado como ‘quanto maior melhor’. Isto por causa dos retornos gerados, viabilizando o aumento de patrimônio (capital – juros recebidos). Em contrapartida, o passivo circulante financeiro é interpretado, ‘quanto menor melhor’, ou seja, quanto menor este for, menos se pagará de juros sobre o passivo financeiro. Sendo assim, a amostra, em sua maioria, apresentou valores baixos (negativos) para as empresas insolventes e valores maiores (positivos) para empresas solventes. Cabe observar que o fato de o valor calculado ser negativo ou positivo, por si só, não define o estado de insolvência ou solvência da instituição. Já o cálculo da variável 𝑋7 não envolve juros, e no caso do passivo, em particular, no

geral ainda se pode negociar prazo em contas, como a de fornecedor, ao menos no princípio do processo de desintegração do patrimônio. Contudo, a importância da variável 𝑋8 para a

análise também pode ser percebida pela melhora do desempenho do modelo de análise de crédito e pela melhora de algumas variáveis (índices), simultaneamente, tornando o modelo como um todo mais coeso. A comparação dos Modelos – MT&D e Modelo – MT visou a avaliar a integração do

modelo dinâmico ao modelo tradicional e também a verificar a contribuição dos índices pertencentes ao modelo dinâmico para o modelo gerado. Por este método, foi possível comprovar a contribuição das variáveis do modelo dinâmico para a análise de insolvência com vista à concessão de crédito. Observa-se, entretanto, que em nenhuma das configurações de redes neurais que não possuía as variáveis do modelo dinâmico pode-se atingir uma classificação de 100%, embora a margem de acerto seja bastante elevada sem as variáveis do modelo dinâmico. Com relação à amostra utilizada, pode-se concluir que a rede é eficiente em relação aos índices testados. A principal finalidade deste trabalho, que era de, por meio da análise financeira, realizar uma contribuição ao estudo da solvência empresarial, utilizando-se das redes neurais artificiais, foi alcançada no presente estudo.

103

6.2 Recomendações para trabalhos futuros

Como observado, a análise de crédito tem evoluído ao longo do tempo e, cada vez mais, buscam-se ferramentas capazes de auxiliar o processo de tomada de decisão na concessão de crédito e no aperfeiçoamento desta metodologia. Neste sentido, para a realização de trabalhos futuros, pode-se utilizar a comparação de ferramentas para modelagem, tais como análise discriminante, regressão logística, árvore de decisão, análise de conglomerados (clusters analysis) e lógica nebulosa (fuzzy logic), entre outras. Utilizar-se também modelagem para avaliar outros setores da economia, a fim de saber quais características estes apresentam em suas demonstrações financeiras, também poderia ser de grande valia, sendo que traria maior clareza sobre as especificações que envolvem a análise de crédito, em um determinado ramo de atividade. Outros estudos podem também testar novas variáveis pertencentes ao modelo tradicional e ao modelo dinâmico de análise financeira, visando a encontrar outros índices que sejam relevantes para a análise de crédito. Por fim, cabe salientar que novas pesquisas nesta área permitem consolidar a importância acadêmica do tema e difundir o conhecimento gerado. As pesquisas em outras áreas do conhecimento podem vir a contribuir em setores diferentes, como no presente caso, onde a neurociência criou as bases necessárias para o desenvolvimento de uma nova ferramenta, “as Redes Neurais Artificiais”, que podem ser aplicadas tanto à análise de crédito quanto a outras áreas.

104

REFERÊNCIAS BIBLIOGRÁFICAS

ALMEIDA, Fernando Carvalho de; NAKAO, Silvio Hiroshi. Redes Neurais. In: CORRAR, Luiz João; PAULO, Edilson; DIAS FILHO, José Maria (Coord.). Análise Multivariada: para os cursos de Administração, Ciências Contábeis e Economia. São Paulo: Atlas, 2007. 432-459 p. ALTMAN, Edward L. Financial Ratios, Discriminant Analysis and the Prediction of Corporate Bankruptcy. The Journal of Finance, v. 23, n. 4, 589-609 p., sept., 1968. Disponível em: . Acesso em: 10 set. 2012. ALTMAN, Edward L.; BAIDYA, Tara K. N.; DIAS, Luiz Manoel Ribeiro. Previsão de problemas financeiros em empresas. Revista de Administração de Empresas - RAE, v. 19 (1), 17-28 p., jan./mar., 1979. Disponível em: . Acesso em: 10 set. 2012. ASSAF NETO, Alexandre. Finanças corporativas e valor. 5. ed. São Paulo: Atlas, 2010. 726 p. ASSAF NETO, Alexandre. SILVA, César Augusto Tibúrcio. Administração do Capital de Giro. 4. ed. São Paulo: Atlas, 2012. 269 p. BANCO CENTRAL DO BRASIL - BACEN. Relatório de Inflação. Brasília-DF: [s.n.], v. 14 nº 3 set. 2012 p. 1-147. Disponível em: . Acesso em: 06 dez. 2012. BANCO CENTRAL DO BRASIL - BACEN. Resolução 2.682, de 21/12/1999. Brasília-DF: [s.n.], 21 dez. 6 p. 1999. Disponível em: . Acesso em: 20 set. 2012. BRAGA, Antônio de Pádua; CARVALHO, André Carlos Ponce de Leon Ferreira de; LUDERMIR, Teresa Bernarda. Redes Neurais Artificiais: Teoria e Aplicações. 2. ed. Rio de Janeiro: LTC, 2011. 226 p. BRASIL. Congresso Nacional. Lei n. 6.404, de 15 de dezembro de 1976. Dispõe sobre as sociedades por ações. Diário Oficial [da] República Federativa do Brasil, Brasília, DF, 17 dez. 1976. (SEÇÃO III - Balanço Patrimonial - Grupo de Contas - Art. 178). Disponível em: . Acesso em: 11 jun. 2012. ______. Congresso Nacional. Lei n. 11.101 de 9 de fevereiro de 2005. Regula a recuperação judicial, a extrajudicial e a falência do empresário e da sociedade empresaria. DOU, edição extra, DF, 9 fev. 2005. Disponível em: . Acesso em: 21 set. 2012.

105

______. Congresso Nacional. Lei n. 11.638, de 28 de dezembro de 2007. Altera e revoga dispositivos da Lei n°. 6.404, de 15 de dezembro de 1976, e da Lei n. 6.385, de 7 de dezembro de 1976, e estende às sociedades de grande porte disposições relativas à elaboração e divulgação de demonstrações financeiras. Diário Oficial da República Federativa do Brasil, Brasília, 28 dez. 2007. Disponível em: . Acesso em: 21 set. 2012. ______. Presidência da República. Decreto-Lei n. 7.661 de 21 de junho de 1945. Lei de Falências. DOU, DF, 31 jul. 1945. Disponível em: . Acesso em: 21 set. 2012. BRASIL, Haroldo Vinagre; BRASIL, Haroldo Guimarães. Gestão Financeira das Empresas: um modelo dinâmico. 4. ed. Rio de janeiro: Qualitymark, 2008. 163 p. (5ª Reimpressão). BRIGHAM, Eugene F.; EHRHARDT, Michael C. Administração Financeira: Teoria e Prática. 13. ed. São Paulo: Cengage Learning, 2012. 1113 p. CARVALHO, Alfredo Tertuliano de. Modelo de previsão de insolvência para empresas comerciais. 2004, 129 p. Dissertação (Mestrado em Engenharia de Produção), Programa de Pós-Graduação em Engenharia de Produção da Universidade Federal de Santa Catarina, Florianópolis, 2004. Disponível em: . Acesso em: 25 maio 2012. CERVO, Amado Luiz.; BERVIAN, Pedro Alcino. Metodologia científica. 5. ed. São Paulo: Prentice Hall, 2002. 242 p. FLEURIET, Michel; KEHDY, Ricardo; BLANC, Georges. A dinâmica financeira das empresas brasileiras: um método de análise, orçamento e planejamento financeiro. Belo Horizonte: Fundação Dom Cabral, 1978. 181 p. ______. O Modelo Fleuriet: a dinâmica financeira das empresas brasileiras: um método de análise, orçamento e planejamento financeiro. 3. ed. Rio de Janeiro: Campus, 2003. 169 p. (11ª Reimpressão). GIL, Antonio Carlos. Como elaborar projetos de pesquisa. 5. ed. São Paulo: Atlas, 2010. 184 p. HAIR, Jr. F.; TATHAM, R. L.; BLACK, W. C.; ANDERSON, R. E. Análise multivariada de dados. 5. ed. Porto Alegre: Bookman, 2005. HAYKIN, Simon. Redes Neurais: Princípios e Prática. 2. ed. Porto Alegre: Bookman, 2001. 900 p. IBM. IBM SPSS Neural Networks 21. [s. l.]: IBM Corporation, 2012. Disponível em: . Acesso em: 09 dez. 2012.

106

KANITZ, Stephen Charles. Como prever falências 5 anos depois. Revista de Administração da Universidade de São Paulo (Rausp), v. 15, n. 4, 127-131 p., out./dez. 1980. Disponível em: . Acesso em: 11 out. 2012. KANITZ, Stephen Charles. Como prever falências de empresas. Revista Negócios em Exame (Revista EXAME), dez. 1974. 95-102 p. Disponível em: . Acesso em: 11 out. 2012. KANITZ, Stephen Charles. Como prever falências. São Paulo: McGraw-Hill do Brasil, 1978. 174 p. KANITZ, Stephen Charles. Como prever falências: 40 anos depois. 2012. (Artigos e comentários: 8 ago. 2012). Disponível em: . Acesso em: 11 out. 2012. LUDWIG JUNIOR, Oswaldo; MONTGOMERY, Eduard. Redes Neurais: Fundamentos e aplicações com programas em C. 1. ed. Rio de Janeiro: Ciência Moderna, 2007. 125 p. MARCONI, Marina de Andrade; LAKATOS, Eva Maria. Fundamentos de metodologia científica. 6. ed. São Paulo: Atlas, 2005. 315 p. MÁRIO, Poueri do Carmo. Contribuição ao estudo da solvência empresarial: uma análise de modelos de previsão - estudo exploratório aplicado em empresas mineiras. 2002. 209 p. Dissertação (Mestrado em Controladoria e Contabilidade: Contabilidade) - Faculdade de Economia, Administração e Contabilidade, Universidade de São Paulo, São Paulo, 2002. Disponível em: . Acesso em: 14 set. 2012. MATHWORKS. Neural Network Toolbox™ User’s Guide R2012b. [s. l.]: MathWorks Corporation, 2012. (Accelerating the pace of engineering and science). Disponível em: . Acesso em: 04 nov. 2012. MATIAS, Alberto Borges. Contribuição às técnicas de análise financeira: um modelo de concessão de crédito. 1978. 101p. Monografia – Trabalho apresentado ao Departamento de Administração da Faculdade de Economia, Administração e Contabilidade da USP, São Paulo, 1978. Disponível em: . Acesso em: 06 jun. 2012. MATTAR, Fauze Najib. Pesquisa de marketing: metodologia, planejamento. 6. ed. São Paulo: Atlas, 2005. 347 p. MCCULLOCH, Warren S.; PITTS, Walter. A Logical Calculus of the Ideas Immanent in nervous Activity. Bulletin of Mathematical Biophysics, v. 5, 115-133 p., 1943. Disponível em: . Acesso em: 28 out. 2012.

107

MELO, Alisson Curátola de; COUTINHO, Eduardo Senra. O Modelo Fleuriet como indicador conjunto de solvência e rentabilidade. In: ENANPAD, 31, 2007, Rio de Janeiro. Anais... Rio de janeiro: ANPAD, 2007. 1 CD-ROM. PEREIRA, José Manuel; DOMÍNGUEZ, Miguel Á. Crespo; OCEJO, José L. Sáez. Modelos de Previsão do Fracasso Empresarial: Aspectos a considerar. Revista de Estudos Politécnicos (Polytechnical Studies Review), v. 4, n. 7, 111-148 p., jun. 2007. Disponível em: . Acesso em: 02 set. 2012. RUSSELL, Stuart Jonathan; NORVIG, Peter. Inteligência artificial: referência completa para cursos de computação. Rio de Janeiro: Campus, 2004. 1021 p. SANTOS, José Odálio dos. Análise de crédito: empresas, pessoas físicas, agronegócio e pecuária. 5. ed. São Paulo: Atlas, 2012. 352 p. SANVICENTE, Antônio Zoratto; MINARDI, Andrea Maria Accioly Fonseca. Identificação de indicadores contábeis significativos para previsão de concordata de empresas. Instituto Brasileiro de Mercado de Capitais, Working Paper, Out. 1998. Disponível em: . Acesso em: 05 jun. 2012. SCHRICKEL, Wolfgang Kurt. Análise de crédito: concessão e gerencia de empréstimos. 5. ed. São Paulo: Atlas, 2000. 353 p. SILVA, José Antônio da. Análise do Estabelecimento de Limite de Crédito - Um Estudo de Caso. 2002, 140 p. Dissertação (Mestrado em Administração), Departamento de Economia, Contabilidade, Administração e Secretariado da Universidade de Taubaté, Taubaté/SP, 2002. Disponível em: . Acesso em: 18 jul. 2012. SILVA, José Pereira da. Análise financeira das empresas. 11. ed. São Paulo: Atlas, 2012. 585 p. SILVA, José Pereira da. Gestão e Análise de Risco de Crédito. 6. ed. São Paulo: Atlas, 2008. 421 p.

108

ANEXO A – Contas utilizadas para definição do modelo tradicional e do modelo dinâmico de análise financeira Os dados a seguir foram extraídos de Silva (2008) e Silva (2012). As equações são as seguintes: •

MODELO TRADICIONAL

𝑋1 =

𝑅𝑒𝑠𝑒𝑟𝑣𝑎𝑠 + 𝐿𝑢𝑐𝑟𝑜𝑠 𝑆𝑢𝑠𝑝𝑒𝑛𝑠𝑜𝑠 𝐴𝑡𝑖𝑣𝑜 𝑇𝑜𝑡𝑎𝑙

 Reservas

 Lucros Suspensos (ou Lucros Acumulados)  Ativo Total

𝐷𝑖𝑠𝑝𝑜𝑛í𝑣𝑒𝑙

𝑋2 = 𝐴𝑡𝑖𝑣𝑜 𝑇𝑜𝑡𝑎𝑙  Disponível

 Ativo Total

𝑋3 =

𝐴𝑡𝑖𝑣𝑜 𝐶𝑖𝑟𝑐𝑢𝑙𝑎𝑛𝑡𝑒 −𝐷𝑖𝑠𝑝𝑜𝑛í𝑣𝑒𝑙 − 𝑃𝑎𝑠𝑠𝑖𝑣𝑜 𝐶𝑖𝑟𝑐𝑢𝑙𝑎𝑛𝑡𝑒 + 𝐹𝑖𝑛𝑎𝑛𝑐𝑖𝑎𝑘𝑒𝑛𝑡𝑜𝑠 + 𝐷𝑢𝑝𝑙𝑖𝑐𝑎𝑡𝑎𝑠 𝐷𝑒𝑠𝑐𝑜𝑛𝑡𝑎𝑑𝑎𝑠 𝑉𝑒𝑛𝑑𝑎𝑠

 Ativo Circulante  Disponível

 Passivo Circulante  Financiamentos (instituições de crédito)  Duplicatas Descontadas  Vendas

𝑋4 =

𝐿𝑢𝑐𝑟𝑜 𝑂𝑝𝑒𝑟𝑎𝑐𝑖𝑜𝑛𝑎𝑙 + 𝐷𝑒𝑠𝑝𝑒𝑠𝑎𝑠 𝐹𝑖𝑛𝑎𝑛𝑐𝑒𝑖𝑟𝑎𝑠 𝐴𝑡𝑖𝑣𝑜 𝑇𝑜𝑡𝑎𝑙 𝑀é𝑑𝑖𝑜 − 𝐼𝑛𝑣𝑒𝑠𝑡𝑖𝑘𝑒𝑛𝑡𝑜 𝑘é𝑑𝑖𝑜𝑠

 Lucro Operacional

 Despesas Financeiras

𝐴𝑡𝑙𝑣𝑙 𝑇𝑙𝑡𝑎𝑙 𝑀é𝑖𝑙𝑙 =

𝐴𝑡𝑖𝑣𝑜 𝐼𝑛𝑖𝑐𝑖𝑎𝑙 + 𝐴𝑡𝑖𝑣𝑜 𝐹𝑖𝑛𝑎𝑙 2

 Ativo Total Médio = (ativo total no ano + ativo total no ano anterior)/2

109

𝐼𝑛𝑣𝑖𝑙𝑡𝑙𝑠𝑖𝑛𝑡𝑙 𝑠é𝑖𝑙𝑙𝑙 =

𝐼𝑛𝑣𝑒𝑠𝑡𝑖𝑘𝑒𝑛𝑡𝑜 𝐼𝑛𝑖𝑐𝑖𝑎𝑙 + 𝐼𝑛𝑣𝑒𝑠𝑡𝑖𝑘𝑒𝑛𝑡𝑜 𝐹𝑖𝑛𝑎𝑙 2

 Investimento médio = (saldo do investimento no ano + saldo do investimento no ano anterior)/2

𝑋5 =

𝐿𝑢𝑐𝑟𝑜 𝑂𝑝𝑒𝑟𝑎𝑐𝑖𝑜𝑛𝑎𝑙 𝐿𝑢𝑐𝑟𝑜 𝐵𝑟𝑢𝑡𝑜

 Lucro Operacional  Lucro Bruto

𝑋6 =

𝑃𝑎𝑡𝑟𝑖𝑘ô𝑛𝑖𝑜 𝐿í𝑞𝑢𝑖𝑑𝑜 𝑃𝑎𝑠𝑠𝑖𝑣𝑜 𝐶𝑖𝑟𝑐𝑢𝑙𝑎𝑛𝑡𝑒 + 𝑃𝑎𝑠𝑠𝑖𝑣𝑜 𝑛ã𝑜 𝐶𝑖𝑟𝑐𝑢𝑙𝑎𝑛𝑡𝑒 𝐿𝑢𝑐𝑟𝑜 𝐵𝑟𝑢𝑡𝑜 X 100 𝑉𝑒𝑛𝑑𝑎𝑠 𝑃𝑀𝑅𝐸 + 𝑃𝑀𝑅𝑉 − 𝑃𝑀𝑃𝐶

 Patrimônio Líquido

 Capital de terceiros = (Passivo Circulante + Passivo não Circulante)  Lucro Bruto (ou Margem Bruta)  Ciclo Financeiro = Vendas / (PMRE + PMRV – PMPC) Obs.: Quanto à soma dos três itens do Ciclo Financeiro, isto é, dos prazos médios, derem resultado negativo, considere o módulo de todo o denominador de X6.  PMRE = Prazo Médio de Rotação dos Estoques PMRE = (Estoque médio / Custo da mercadoria vendida) * Dias do período considerado Obs.: dias do período = 360  PMRV = Prazo Médio de Recebimento das Vendas PMRV = (duplicatas a receber / vendas) * dias do período considerado Obs.: duplicatas a receber (média).  PMPC = Prazo Médio de Pagamento das Compras PMPC = (fornecedores / compras) * dias do período considerado Obs.: fornecedores (média). Obs.: CMV = EI + C – EF

=>

C = CMV + (EF – EI)

CMV = Custo da Mercadoria Vendida EI = Estoque Inicial C = Compras

110

EF = Estoque Final (as compras equivalem ao CVM mais a variação dos estoques). •

MODELO DINÂMICO

𝑋7 =

𝐴𝑡𝑖𝑣𝑜 𝐶𝑖𝑟𝑐𝑢𝑙𝑎𝑛𝑡𝑒 𝑂𝑝𝑒𝑟𝑎𝑐𝑖𝑜𝑛𝑎𝑙 – 𝑃𝑎𝑠𝑠𝑖𝑣𝑜 𝐶𝑖𝑟𝑐𝑢𝑙𝑎𝑛𝑡𝑒 𝑂𝑝𝑒𝑟𝑎𝑐𝑖𝑜𝑛𝑎𝑙 𝐴𝑡𝑖𝑣𝑜 𝑇𝑜𝑡𝑎𝑙

𝑋8 =

𝐴𝑡𝑖𝑣𝑜 𝐶𝑖𝑟𝑐𝑢𝑙𝑎𝑛𝑡𝑒 𝐹𝑖𝑛𝑎𝑛𝑐𝑒𝑖𝑟𝑜 – 𝑃𝑎𝑠𝑠𝑖𝑣𝑜 𝐶𝑖𝑟𝑐𝑢𝑙𝑎𝑛𝑡𝑒 𝐹𝑖𝑛𝑎𝑛𝑐𝑒𝑖𝑟𝑜 𝐴𝑡𝑖𝑣𝑜 𝑇𝑜𝑡𝑎𝑙

 Ativo Circulante Operacional (Todas as contas do Ativo Circulante Operacional, discriminadas separadamente).  Ativo Circulante Financeiro (Todas as contas do Ativo Circulante Financeiro, discriminadas separadamente).  Passivo Circulante Operacional (Todas as contas do Passivo Circulante Operacional, discriminadas separadamente).  Passivo Circulante Financeiro (Todas as contas do Passivo Circulante Financeiro, discriminadas separadamente).  Ativo Total.

TCC - José Willer do Prado.pdf

There was a problem previewing this document. Retrying... Download. Connect more apps... Try one of the apps below to open or edit this item. TCC - José Willer do Prado.pdf. TCC - José Willer do Prado.pdf. Open. Extract. Open with. Sign In. Main menu.

1022KB Sizes 2 Downloads 74 Views

Recommend Documents

Fall2013-TCC-Ashwaubenon.pdf
Bugg, Andrew Gollnick, Dave Gust and. Mike Maederer. ... 80s and the perfect sun/cloud mixture. The. Village of ... Page 1 of 1. Fall2013-TCC-Ashwaubenon.pdf.

TCC 2016 Hippology.pdf
There was a problem loading more pages. Retrying... Whoops! There was a problem previewing this document. Retrying... Download. Connect more apps.

TCC 2016 Hippology.pdf
Dec 31, 2016 - 17202 Richmond Turnpike. Milford, VA 22514. Pre-Register requested at: [email protected]. Walk ins welcome. This contest is open to all 4-H, and. FFA members of any club, county or. district; Cloverbuds to seniors. Page 1

Monique Oliveira-TCC v. final.doc.pdf
Monique Oliveira-TCC v. final.doc.pdf. Monique Oliveira-TCC v. final.doc.pdf. Open. Extract. Open with. Sign In. Main menu.Missing:

RESUMO TCC EGRESSOS1.pdf
As pesquisas bibliográfica e documental revelaram que a. ética agrega valor à marca das organizações. 38. Aline Cristina Perez ADM 2011. Levantamento das ...

letters-to-juliet-by-jos-eustasio-rivera.pdf
Colombo-Venezuelan Border Commission to determine the limits with Venezuela, there he had. the opportunity to travel through the Colombian jungles, rivers, ...

jos van der haterd - duurzaam on stage.pdf
en Tom Verheijen een lichtontwerp ge- maakt voor een dansvoorstelling. Die. voorstelling is op 3 november uitgevoerd. in de Rotterdamse Schouwburg.

Fiche d'inscription TCC 2015-2016.pdf
Octobre/Novembre/Décembre). Whoops! There was a problem loading this page. Fiche d'inscription TCC 2015-2016.pdf. Fiche d'inscription TCC 2015-2016.pdf.

Jie ir jos iš skirtingų planetų.pdf
There was a problem previewing this document. Retrying... Download. Connect more apps... Try one of the apps below to open or edit this item. Jie ir jos iÅ¡ ...

TCC - Felipe Araujo e Leandro Bortolini.pdf
Universidade Federal do Espírito Santo. Page 3 of 89. TCC - Felipe Araujo e Leandro Bortolini.pdf. TCC - Felipe Araujo e Leandro Bortolini.pdf. Open. Extract.

2010 WAA TCC-Climbing Competition Results.pdf
The following would have competed in the Masters Challenge. 2010 Wisconsin Arborist Association Tree Climbing Championship. Men's Results Foot- Lock.

TCC - Canoe Polo Roster Autumn 2015 - updated 28 ... -
Richard Pearson. Leigh Webb tom mountney. Liz Hickman. Chris Jacobs. Sean Oliver. Hannah Papworth. Jack Bower luis wilson. James Casper(pt). B GRADE.

pl 10-08 ododododododododo d. oo do, o do, o do, o do, o do ... - GitHub
PL. 10-08. O D O D O D O D O D O D O D O D O D. O. O DO, O DO, O DO, O DO, O DO, O DO, O DO, O DO, O DO, O. O DO, O DO, O DO, O DO, O DO, O DO, ...

TCC - Israel Araújo (Graduação em Letras - UFPA 2005).pdf ...
There was a problem previewing this document. Retrying... Download. Connect more apps... Try one of the apps below to open or edit this item. TCC - Israel ...

Cartilha_peti_Perguntas-Respostas do Redesenho do PETI.pdf ...
Retrying... Cartilha_peti_Perguntas-Respostas do Redesenho do PETI.pdf. Cartilha_peti_Perguntas-Respostas do Redesenho do PETI.pdf. Open. Extract.

regulalmento do cartao do idosofinal.pdf
regulalmento do cartao do idosofinal.pdf. regulalmento do cartao do idosofinal.pdf. Open. Extract. Open with. Sign In. Main menu. Displaying regulalmento do ...

pdf-1475\aunt-jos-scrap-bag-an-old-fashioned-thanksgiving ...
Connect more apps... Try one of the apps below to open or edit this item. pdf-1475\aunt-jos-scrap-bag-an-old-fashioned-thanksgiving-etc-by-louisa-m-alcott.pdf.

pdf-1499\by-jos-b-ashford-craig-winston-lecroy-human ...
... the apps below to open or edit this item. pdf-1499\by-jos-b-ashford-craig-winston-lecroy-human-b ... multidimensional-perspective-fourth-4th-edition-fr.pdf.