Considerando as limitações de processamento de texto do ChatGPT, especialmente em relação ao limite de tokens, de que forma a estratégia de segmentação de textos extensos em partes menores, seguida da consolidação dos resumos parciais, contribui para aumentar a precisão e a confiabilidade das análises? Além disso, como a utilização de ferramentas como LangChain pode otimizar esse processo em cenários que demandam escalabilidade e automação?