Atenção:
O eduCAPES é um repositório de objetos educacionais, não sendo responsável por materiais de terceiros submetidos na plataforma. O usuário assume ampla e total responsabilidade quanto à originalidade, à titularidade e ao conteúdo, citações de obras consultadas, referências e outros elementos que fazem parte do material que deseja submeter. Recomendamos que se reporte diretamente ao(s) autor(es), indicando qual parte do material foi considerada imprópria (cite página e parágrafo) e justificando sua denúncia.
Caso seja o autor original de algum material publicado indevidamente ou sem autorização, será necessário que se identifique informando nome completo, CPF e data de nascimento. Caso possua uma decisão judicial para retirada do material, solicitamos que informe o link de acesso ao documento, bem como quaisquer dados necessários ao acesso, no campo abaixo.
Todas as denúncias são sigilosas e sua identidade será preservada. Os campos nome e e-mail são de preenchimento opcional. Porém, ao deixar de informar seu e-mail, um possível retorno será inviabilizado e/ou sua denúncia poderá ser desconsiderada no caso de necessitar de informações complementares.
Metadados | Descrição | Idioma |
---|---|---|
Autor(es): dc.contributor | Universidade Estadual Paulista (UNESP) | - |
Autor(es): dc.contributor | Kansas State University | - |
Autor(es): dc.contributor | Auburn University | - |
Autor(es): dc.contributor | Mato Grosso State University | - |
Autor(es): dc.creator | Kazama, Elizabeth Haruna | - |
Autor(es): dc.creator | Tedesco, Danilo | - |
Autor(es): dc.creator | Carreira, Vinicius dos Santos | - |
Autor(es): dc.creator | Barbosa Júnior, Marcelo Rodrigues | - |
Autor(es): dc.creator | de Oliveira, Mailson Freire | - |
Autor(es): dc.creator | Ferreira, Francielle Morelli | - |
Autor(es): dc.creator | Junior, Walter Maldonado | - |
Autor(es): dc.creator | da Silva, Rouverson Pereira | - |
Data de aceite: dc.date.accessioned | 2025-08-21T19:38:34Z | - |
Data de disponibilização: dc.date.available | 2025-08-21T19:38:34Z | - |
Data de envio: dc.date.issued | 2025-04-29 | - |
Data de envio: dc.date.issued | 2024-03-15 | - |
Fonte completa do material: dc.identifier | http://dx.doi.org/10.1016/j.scienta.2024.112957 | - |
Fonte completa do material: dc.identifier | https://hdl.handle.net/11449/305504 | - |
Fonte: dc.identifier.uri | http://educapes.capes.gov.br/handle/11449/305504 | - |
Descrição: dc.description | Monitoring coffee fruits maturity is pivotal in the decision-making process, particularly during harvesting. However, the coffee plant produces fruits of different maturity stages due to uneven flowering. Previous studies have focused on post-harvesting or reconstruction techniques to monitor coffee crops, but without a significant impact on the decision-making of management strategies, as it needs to occur before harvesting using a scalable and accurate system. Our objective in this study was: (i) to modify and employ a state-of-the-art object detection model and use it to detect and classify coffee fruits based on their maturity stages, enabling rapid and non-invasive monitoring of coffee plants and (ii) to address challenges with image-based detection in coffee field conditions. Therefore, we analyzed pre-harvesting conditions to detect coffee fruits and classify their maturity stage using a YOLOv8 model enhanced through a modification in the convolution block (RFCAConv) to increase performance without compromise computational resource. We also compared image acquisition under two illumination (natural and artificial) and three acquisition conditions: the entire third of the plant (upper, middle and bottom parts), individual branches within the plant, and individual branches against a controlled background. The proposed model achieved mAP@0.50 of 74.20 % and outperformed the standard version YOLOv8n by 1.90 % with minimal increase in computational resource. The AP for unripe, semi-ripe, ripe and overripe fruits were respectively 73.40 %, 67.10 %, 74.40 % and 71.90 %. When comparing the acquisition settings, the highest mAP was obtained when capturing images from branches against a controlled background under natural illumination. (mAP@0.50 of 72.70 %). However, branch and plant-level images also obtained relevant performance and benefit from artificial illumination. Therefore, our study presents a timely contribution as it enables the monitoring of coffee maturity before harvesting through an enhanced lightweight, state-of-the-art detection model, facilitating decision-making. Moreover, our insights further advance the progress of intelligent harvesting systems by addressing diverse field conditions and challenges for the detection and classification of coffee fruits. | - |
Descrição: dc.description | Department of Engineering and Mathematical Sciences São Paulo State University, São Paulo | - |
Descrição: dc.description | Department of Agronomy Kansas State University | - |
Descrição: dc.description | Crop Soil and Environmental Sciences Auburn University | - |
Descrição: dc.description | School of Agronomy Mato Grosso State University, Mato Grosso | - |
Descrição: dc.description | Department of Engineering and Mathematical Sciences São Paulo State University, São Paulo | - |
Idioma: dc.language | en | - |
Relação: dc.relation | Scientia Horticulturae | - |
???dc.source???: dc.source | Scopus | - |
Palavras-chave: dc.subject | Agriculture 4.0 | - |
Palavras-chave: dc.subject | Coffea arabica | - |
Palavras-chave: dc.subject | Object detection | - |
Palavras-chave: dc.subject | Precision farming | - |
Título: dc.title | Monitoring coffee fruit maturity using an enhanced convolutional neural network under different image acquisition settings | - |
Tipo de arquivo: dc.type | livro digital | - |
Aparece nas coleções: | Repositório Institucional - Unesp |
O Portal eduCAPES é oferecido ao usuário, condicionado à aceitação dos termos, condições e avisos contidos aqui e sem modificações. A CAPES poderá modificar o conteúdo ou formato deste site ou acabar com a sua operação ou suas ferramentas a seu critério único e sem aviso prévio. Ao acessar este portal, você, usuário pessoa física ou jurídica, se declara compreender e aceitar as condições aqui estabelecidas, da seguinte forma: