iOS
A BCC Face é um biblioteca feita para ser integrada em uma aplicação iOS por um arquivo .framework.
A biblioteca utiliza a câmera do dispositivo para tirar uma foto da face para propósitos biométricos. Ela provê um teste simples de vivacidade ativo, requerendo que a pessoa sorria por alguns segundos e/ou olhe para a direita ou esquerda. O teste de vivacidade inclui uma opção para falar as instruções, facilitando o fluxo para os usuários. Adicionalmente, ela provê um teste de vivacidade passivo que pode ser usado para verificar se a foto foi tirada de uma pessoa real sem requerer interação do usuário.
Esse manual está atualizado para a versão 4.8.0 do BCC Face Mobile iOS.
O teste de vivacidade passivo está disponível somente a partir da versão 4.4.0.
Requisitos
Git
CocoaPods, disponível em https://cocoapods.org/.
Instalação
Instalando Dependências
1 - Adicione o seguinte Pod nas dependências da aplicação no Podfile:
pod 'GoogleMLKit/FaceDetection'É preferível o uso de frameworks dinâmicos. Isso pode ser indicado usando a flag use_frameworks! no Podfile.
Um exemplo de Podfile com o alvo chamado BCCs-Sample é mostrado abaixo:
platform :ios, '15.0'
target 'BCCs-Sample' do
use_frameworks!
pod 'GoogleMLKit/FaceDetection', '~> 6.0.0'
pod 'lottie-ios', '~> 4.5.0'
end
post_install do |installer|
installer.pods_project.targets.each do |target|
target.build_configurations.each do |config|
config.build_settings['DEVELOPMENT_TEAM'] = "YOUR_DEVELOPMENT_TEAM_KEY"
config.build_settings['BUILD_LIBRARY_FOR_DISTRIBUTION'] = 'YES'
end
end
endNa versão atual do BCC Face Mobile iOS (4.8.0), é necessário utilizar a versão 4.5.0 da dependência lottie-ios, conforme especificado no exemplo acima, para garantir compatibilidade e evitar conflitos de versão.
É recomendado utilizar a mesma versão mínima de iOS suportada para a aplicação e para o framework: iOS 15.0, como no exemplo acima. Também é indicado definir a flag BUILD_LIBRARY_FOR_DISTRIBUTION = YES no Podfile, garantindo compatibilidade com versões mais antigas do SDK.
2 - Feche o projeto Xcode, abra o terminal, vá até a pasta onde o Podfile está e execute:
Depois do término da execução, um arquivo com a extensão .xcworkspace será criado na mesma pasta.
3 - Abra o novo arquivo .xcworkspace.
A partir de agora, cada vez que o usuário quiser abrir o projeto, é necessário abrir através do arquivo .xcworkspace, pois ele inclui as dependências.
Importando e Configurando
Importando o Projeto
Abra o projeto usando o arquivo
.xcworkspace.Adicione o arquivo
BCCFace.frameworkao projeto, então adicione-o à lista de frameworks de sua aplicação.Mova o arquivo
.frameworkpara a árvore de arquivos do projeto.Se já houver uma pasta de frameworks, é recomendado movê-lo para essa pasta.
Abra as configurações do projeto.
Vá para a guia General.
Clique e arraste o arquivo
.frameworkpara a árvore do projeto abaixo da seçãoFrameworks, Libraries, etc.
Mude a configuração do
BCCFace.frameworkdeDo not embedparaEmbed & Sign.Mude a versão alvo do seu projeto para o mínimo de iOS 15.
Configuração Inicial
Esta versão não possui dependências do Firebase e nem de uma configuração inicial chamada pelo AppDelegate. A única configuração inicial necessária é que o aplicativo deve solicitar permissão de uso da câmera. Para fazer isso, adicione a seguinte chave no arquivo info.plist, na Lista de Propriedades de Informação:
O valor da chave é a mensagem que será exibida ao usuário quando solicitar permissão de uso da câmera. Esse valor pode estar em branco ou ser uma mensagem customizada.
Uso
Parâmetros e Construtor
Para usar a biblioteca BCC Face corretamente, certos parâmetros são necessários.
Um exemplo simples de uso de biblioteca é mostrado abaixo:
O construtor da classe BCCFaceBuilder recebe os seguintes parâmetros:
hostVC: UIViewController- View controller que chama a tela de captura.delegate: BCCFaceDelegate- Interface responsável por notificar os eventos de captura, como falha ou sucesso.
O método initializeCapture também aceita um parâmetro opcional, como mostrado abaixo:
Nos casos em que a navegação é feita através de um navigation controller, você deve fornecê-lo ao chamar o método.
A classe BCCFaceBuilder é responsável por gerenciar as configurações de uso do BCCFace. Os parâmetros a seguir são aceitos para configuração da captura biométrica e comportamento do software:
buildSmileCheck(with smileProbability: ClosedRange<Float> = 0.5...1.0)- Adiciona o teste de vivacidade por meio de verificação de sorriso e define o limiar de aceitação. Essa funcionalidade é ativada por padrão.removeSmileCheck()- Remove o teste de vivacidade por meio de sorriso.buildRotationCheck(_ rotationChecks: [HeadRotationCheck], headRotationAngle: ClosedRange<Float> = -6.0...6.0)- Define uma lista de testes de vivacidade para rotação de face e o ângulo máximo de rotação. Essa funcionalidade é ativada por padrão. As opções para rotação de face são:removeHeadRotation()- Remove o teste de vivacidade por meio de rotação de face.addPassiveLiveness()- Adiciona o teste de vivacidade passivo. Essa funcionalidade é usada para verificar se a foto capturada é de uma pessoa real sem requerer interação do usuário. Para usar essa funcionalidade, você DEVE desabilitar os testes de vivacidade ativos (removeSmileCheck()eremoveHeadRotation()) que são adicionados por padrão.buildSpeechSettings(_ speechSettings: SpeechSettings)- Define os critérios para a configuração de acessibilidade (leitura das instruções) usando os seguintes parâmetros:volume- O volume do áudio entre0.0e1.0.startsMuted- Define se as instruções iniciarão silenciadas ou não (truepara silenciar).pitch- Define o timbre de voz para as instruções entre0.5(grave) e2.0(agudo).speed- Define a velocidade de leitura das instruções. Este valor deve ser positivo.
Os valores predeterminados podem ser acessados por meio da seguinte variável estática:
removeSpeech()- Remove a leitura de acessibilidade.setReviewEnable(_ enable: Bool)- Define se a tela de revisão da captura biométrica será habilitada ou não.setInstructionEnable(_ enable: Bool)- Define se a tela de instruções será habilitada ou não.forceLanguage(_ language: BCCLanguages?)- Força as instruções a serem exibidas em um idioma específico. Se o idioma do dispositivo não for suportado, inglês será usado. Os idiomas suportados são:removeLanguage()- Remove o idioma forçado.
Para referência, a lista completa de parâmetros e valores padrão é:
O teste de vivacidade ativo (usando sorriso e rotação aleatória de cabeça) é habilitado por padrão. Para usar apenas o teste de vivacidade passivo, antes de adicioná-lo, é necessário remover os métodos de vivacidade ativa do construtor:
Aqui está um trecho de código para iniciar uma captura usando apenas o teste de vivacidade passivo:
Valores de Retorno
Os resultados da última captura facial podem ser recuperados através do método faceCaptureDidFinish da interface BCCFaceDelegate:
O objeto data contém as imagens capturadas durante o processo:
As propriedades retornadas são:
originalPhoto(image) - Foto original tirada pela câmera.croppedPhoto(image) - Foto cortada, que é a imagem da face recortada da foto original.passiveResult(Data) - Conteúdo do arquivo de coleta para teste de vivacidade passivo. Está presente apenas se capturado com sucesso. É o retorno da coleta para teste de vivacidade passivo como JPEG Data. Esses dados podem ser salvos/exportados diretamente para um arquivo ou enviados para a rede (para rede: a codificação do sistema pode ser facilmente feita, por exemplo, uma string Base64).
Caso o usuário encerre a aplicação antes de finalizar a captura biométrica, o método faceCaptureDidAbort será chamado. Você pode implementar este método para tratar este cenário.
Projeto Exemplo
Este é um exemplo de projeto funcional para captura de face utilizando o BCC Mobile Face iOS:
Exemplo de chamada para API de Liveness
Esse exemplo demonstra uma chamada para API de Liveness com o resultado de Captura Passiva, o que ajuda a mitigar possíveis ataques.
Quando a captura finalizar, o resultado passivo (Data) pode ser convertido para Base64 e enviado para a API de Liveness:
Atualizado
Isto foi útil?

