「都是url惹的祸」(问题:小数点参数被截取|刷新页面找不到资源)

问题背景:

        在开发的时候有个页面跳转的需求点并且需要带着五个参数飞过去,其中包含版本号(就是有小数点的数字,这也是遇到的一个问题一会聊一哈),本来触发完事件横跳过去没有问题,寻思着看一下Network看看接口数据,所以就刷新了一下,就在这个时候问题来个。我页面不见了,甚至还在报错,找不到资源。

 问题原因:

    经过跟谷子哥的一番深入交流后得到的结果是:

  • HashRouter刷新后会导致路由state参数的丢失!!!(大家应该都知道,哈希刷新参数丢失,当时我没有想到这个点上)

  附上链接:react-router-dom 的 HashRouter 也就这么回事儿 - SegmentFault 思否         

   但是一想也不对呀参数丢就丢了为啥直接找不到资源了呢,就很奇怪。看着一堆代码开始思考人生,突然看到这个东西 「这样写的话参数丢了还能找到资源那才奇了个怪呢」。

path="/demo/test/:name/:age"

  这个属于params参数中的  注册路由( 声明接收 )!!!(大家都会吧!)

params参数
路由链接(携带参数):<Link to='/demo/test/tom/18'}>详情</Link>
注册路由(声明接收):<Route path="/demo/test/:name/:age" component={Test}/>
接收参数:this.props.match.params

 解决问题:

哈希路由刷新参数丢失的问题其实换成 BrowserRouter  就可以了(这才多大点事呢)

附上链接:聊聊BrowserRouter的内部实现 - 知乎 

但是开始就说了参数中有小数点这个问题了(如果说哈希刷新会丢失参数是我大意没想到这个点,那这个问题我是真的不会,也没遇到过)  

     其实以前的开发中路由传参包含有小数的参数也传过但是没有遇到这种问题,这次可能是冥冥之中早有安排(逼着我前进呀) 

问题原因: 

在用url进行传参时,小数参数后边的小数值被截取掉了!!!

我当时的参数:/mid/36502/invoiceAmount/125.25
获取到的参数:invoiceAmount=125

解决问题:

方案一:设置伪静态后缀

浏览器会把伪静态后缀去掉,如果小数参数不放在最后就没问题。(这个办法我也没试过)

方案二:把带有小数的参数放在中间,不能放在最后边(不放在最后就不会把小数点后面的值当作静态后缀去掉了)

例如:http://192.168.1.5/mid/36502/invoiceAmount/125.25

改为:http://192.168.1.5/invoiceAmount/125.25/mid/36502

方案三:在参数最后面多加一个 / 也是行的

我用的是第二种方法(因为简单😜) !!!

文章是自己记录一下(写的很水没有啥高质量营养,如果有写的不对的地方留言我,我会偷偷改掉,感谢!!!)

愿路过的大佬平安喜乐

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/53213.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

mysql用户名不存在_dedecms系统后台登陆提示用户名密码不存在

dedecms最近被曝有非常多的安全漏洞&#xff0c;最近有些用户反应后台管理员账号密码没有修改但无法正常登陆&#xff0c;提示用户名不存在&#xff0c;经研究发现是程序漏洞管理员被直接篡改&#xff0c;解决方案如下。 一、请先使用phpmyadmin登陆mysql管理&#xff0c;虚拟主…

桂林三金,吃不到中药股红利

如果说&#xff0c;国货品牌崛起的大潮本质上是国家的崛起&#xff0c;而非货的崛起。那么&#xff0c;中药的一时火热&#xff0c;靠的也不是疗效&#xff0c;是文化自信。 文化自信改变不了中药的疗效&#xff0c;但可以提升消费者对中药的信心。片仔癀靠着独家秘方&#xf…

如何实现沉浸式旅游与非物质文化遗产的共同发展

中国非物质文化遗产资源丰富&#xff0c;是世界上非物质文化遗产数量最多的国家。丰富多样的资源为非物质文化遗产旅游业的建设提供了良好的基础。非物质文化遗产旅游是基于非物质文化遗产资源开发的文化旅游消费形式。文化资源包括各民族代代相传的传统文化表现形式。非物质文…

@河南省文旅厅 携手让非遗“活”起来!

太极拳申遗成功两周年之际 河南省文化和旅游厅联合百度智能云 打造的“太极拳一张图” 正式上线啦&#xff01; 河南省是我国非物质文化遗产资源大省&#xff0c;此次推出的“太极拳一张图”正是河南省贯彻落实二十大精神&#xff0c;深入推进非遗数字化保护体系建设和传播推广…

小红书百万博主如何炼成?美妆博主专访

“在小红书上如何快速涨粉&#xff1f;”是大家长期以来的疑惑&#xff0c;为此我们找到了小红书美妆博主小颠儿kini&#xff0c;让我们看看他在成为百万博主的道路上都总结了哪些心得吧&#xff01; 采访手记&#xff1a;截止到发稿&#xff0c;美妆博主小颠儿kini在小红书上的…

基于Java Web技术的动车购票系统

毕 业 设 计 中文题目基于Java Web技术的动车购票系统英文题目Train ticket system based on Web JavaTechnology 毕业设计诚信声明书 本人郑重声明&#xff1a;在毕业设计工作中严格遵守学校有关规定&#xff0c;恪守学术规范&#xff1b;我所提交的毕业设计是本人在 指导教师…

什么是注意力机制?

Attention机制在近几年来在图像&#xff0c;自然语言处理等领域中都取得了重要的突破&#xff0c;被证明有益于提高模型的性能。 Attention机制本身也是符合人脑和人眼的感知机制&#xff0c;这次我们主要以计算机视觉领域为例&#xff0c;讲述Attention机制的原理&#xff0c…

深入理解注意力机制(Attention Mechanism)和Seq2Seq

学习本部分默认大家对RNN神经网络已经深入理解了&#xff0c;这是基础&#xff0c;同时理解什么是时间序列&#xff0c;尤其RNN的常用展开形式进行画图&#xff0c;这个必须理解了。 这篇文章整理有关注意力机制&#xff08;Attention Mechanism &#xff09;的知识&#xff0…

Attention注意力机制学习(一)------->SENet

目录 前言 论文 注意力机制 Squeeze-and-Excitation (SE) 模块 第一步Squeeze(Fsq) 第二步excitation(Fex) SE注意力机制应用于inception和ResNet 前言 在深度学习领域&#xff0c;CNN分类网络的发展对其它计算机视觉任务如目标检测和语义分割都起到至关重要的作用&…

Attention,Multi-head Attention--注意力,多头注意力详解

Attention 首先谈一谈attention。 注意力函数其实就是把一个query&#xff0c;一个key-value的集合映射成一个输出。其中query&#xff0c;key&#xff0c;value&#xff0c;output&#xff08;Attention Value&#xff09;都是向量。输出是values的加权求和&#xff0c;是qu…

1.注意力机制

提示&#xff1a;文章写完后&#xff0c;目录可以自动生成&#xff0c;如何生成可参考右边的帮助文档 参考&#xff1a;注意力机制 文章目录 前言一、注意力机制1.非参注意力池化层K(x-x~i~)的选择 2.参数化的注意力机制3.小结 二、注意力分数一维注意力分数拓展到高纬度1.加性…

注意力机制(Attention)

注意力机制分类 包括软注意力机制&#xff08;Soft Attention&#xff09;和硬注意力机制&#xff08;Hard Attention&#xff09;。 硬注意力机制指随机选择某个信息作为需要注意的目标&#xff0c;是一个随机过程&#xff0c;不方便用梯度反向传播计算。软注意力机制指在选…

Attention机制理解笔记(空间注意力+通道注意力+CBAM+BAM)

Attention机制理解笔记 声明Attention分类(主要SA和CA)spitial attentionchannel attentionSA CA(spitial attentionchannel attention)加强SACA理解 空间注意力机制和通道注意力机制解释attention机制Attention模型架构1.空间注意力模型(spatial attention)2.通道注意力机制3…

【Attention】注意力机制在图像上的应用

【Attention】注意力机制在图像上的应用 [SeNet] Squeeze-and-Excitation Networks &#xff08;CVPR2018&#xff09;[Non-local] Non-local neural Networks &#xff08;CVPR2018&#xff09;[GCNet] Non-local Networks Meet Squeeze-Excitation Networks and Beyond 2019-…

注意力机制(Attention Mechanism)-SENet

引言 神经网络中的注意力机制&#xff08;Attention Mechanism&#xff09;是在计算能力有限的情况下&#xff0c;将计算资源分配给更重要的任务&#xff0c;同时解决信息超载问题的一种资源分配方案。在神经网络学习中&#xff0c;一般而言模型的参数越多则模型的表达能力越强…

BahdanauAttention与LuongAttention注意力机制简介

在使用tensorflow时发现其提供了两种Attention Mechanisms&#xff08;注意力机制&#xff09;&#xff0c;如下 The two basic attention mechanisms are: tf.contrib.seq2seq.BahdanauAttention (additive attention, ref.)tf.contrib.seq2seq.LuongAttention (multiplicat…

注意力机制详解系列(一):注意力机制概述

👨‍💻作者简介: 大数据专业硕士在读,CSDN人工智能领域博客专家,阿里云专家博主,专注大数据与人工智能知识分享。公众号: GoAI的学习小屋,免费分享书籍、简历、导图等资料,更有交流群分享AI和大数据,加群方式公众号回复“加群”或➡️点击链接。 🎉专栏推荐: 目…

深入理解图注意力机制(Graph Attention Network)

©PaperWeekly 原创 作者&#xff5c;纪厚业 学校&#xff5c;北京邮电大学博士生 研究方向&#xff5c;异质图神经网络及其应用 介绍 图神经网络已经成为深度学习领域最炽手可热的方向之一。作为一种代表性的图卷积网络&#xff0c;Graph Attention Network (GAT) 引入了…

注意力机制详述

学习本部分默认大家对RNN神经网络已经深入理解了&#xff0c;这是基础&#xff0c;同时理解什么是时间序列&#xff0c;尤其RNN的常用展开形式进行画图&#xff0c;这个必须理解了。 这篇文章整理有关注意力机制&#xff08;Attention Mechanism &#xff09;的知识&#xff0c…

注意力机制Attention详解

注意力机制Attention详解 一、前言 2018年谷歌提出的NLP语言模型Bert一提出&#xff0c;便在NLP领域引起热议&#xff0c;之所以Bert模型能够火出圈&#xff0c;是由于Bert模型在NLP的多项任务中取得了之前所有模型都不能达到的出色效果。那么Bert模型它是如何提出的呢&#x…