“全国最美志愿者”韦腾境:让爱在志愿服务路上延续******
这些天,贵州省独山县益加社会工作服务中心理事长韦腾境正在筹备一场义诊活动。策划、筹备、执行公益活动是韦腾境再熟悉不过的工作日常。今年是35岁的他从事公益服务的第10个年头。“做公益最大的收获,是给受助人带去温暖和希望的同时,自己也获得了很多的感动与启示。”韦腾境说。
2012年的一次意外,让韦腾境永远失去了自己年仅2岁的儿子。为了缓解心中巨大的伤痛,他开始把目光投向公益活动。“想把对孩子的爱以这样的方式延续下去,去帮助更多需要帮助的人。”2013年,他正式加入江苏常州一家爱心公益服务中心,成为一名志愿者。除了工作外,他把所有空闲时间都放到了公益活动中。
“前面几年,一直在长期照顾两位残疾人大哥,只要他们有事,就过去帮忙。到了周末,会带他们到附近去转转。”3年的时间,韦腾境和两位受助人成了无话不谈的朋友,“在帮助他们的过程中,自己也获得了很多心灵的慰藉。”
2015年,韦腾境的第2个孩子出生了,为了照顾孩子及远在家乡的父母,他回到独山县,继续奔走在公益路上。这时,一个想法在他心底萌生:成立一支属于自己的公益队伍。
说做就做,办公室在家乡很快设立了起来。“开始就我们夫妻两个人,办公室里只有两套旧桌椅。”韦腾境说,尽管如此,他依然对未来充满希望。此后,他开始骑着摩托车走村串户,了解当地困境儿童情况,同时招募志愿者,号召更多爱心人士一起关爱困境儿童的成长。
通过2年多的努力,韦腾境动员爱心人士持续参与资助了30余名困境家庭的中小学生,为他们筹集学习用品等,让这些孩子们能够安心学习,在社会关爱中健康成长。
随后,韦腾境又把目光投向了留守儿童。“孩子们长期不在父母身边,太需要倾诉和关爱了。”2018年,韦腾境了解到深圳壹基金公益基金会正在建设“壹乐园”儿童服务站项目,主要开展乡村留守儿童的持续关怀及陪伴。韦腾境立即与基金会联系对接,递交材料等待审核的日子对他而言格外漫长。不久后,好消息传来,他为黔南州平塘县大塘镇云上社区的儿童争取到了第一个儿童服务站。
初建站时,由于站点地处偏远山区,一时招募不到合适的志愿者,韦腾境就动员妻子、女儿一起住进了服务站。从此,他们成了30多个留守儿童的“父母”,辅导孩子们做作业、一起做游戏、一起做饭……夫妻俩像陪伴自己女儿一样陪伴和关心着这些孩子,“甚至比陪我们女儿的时间更长。孩子们都很乖,和他们在一起很快乐。”韦腾境说。
夫妻俩的尽心尽力,孩子们看在眼里,对他们也愈发依赖。有时,孩子不经意间叫错的一句“爸爸妈妈”,总是让夫妻俩热泪盈眶,“这是孩子对我们的肯定。”
这些年,韦腾境先后荣获“全国最美志愿者”“中国好人”等荣誉称号,“很感恩这些肯定,让我更坚定了前行的路。”他说,10年公益路最大的收获不止于此,而是越来越多身边人更加理解和支持自己做公益,同时收获了越来越多同行的志愿者伙伴。
2019年,韦腾境又在独山县周边的易地扶贫搬迁安置点争取建设了两个“益童乐园”儿童服务站,从此,夫妻俩多了更多的孩子,他们也更加忙碌起来。
对于家人,韦腾境的内心一直充满愧疚,“同学们早就买了房和车,自己还带着家里人租房住,陪伴他们的时间也很少,挺亏欠他们的。”但妻子和女儿却一直用自己的行动默默支持着韦腾境,只要有时间,她们总会陪伴韦腾境一起从事志愿服务活动。
谈及未来,韦腾境坚定地说:“志愿服务是我一辈子要做的事,还有很多想做的事,以后要一件件实现。未来希望有更多的人能加入我们,让爱在志愿服务路上延续下去。”郭帅
人工智能如何做到可信、可用?专家热议:把责任归结到个人******
中新网北京12月11日电 人工智能治理的理想状态,是人工智能技术能做到可知、可信、可控、可用。而在现实中,人工智能技术手段虽然非常强大,但是离完美、完善仍有相当的距离。从技术角度和技术应用角度,人工智能的发展如何做到扬长避短?
近日,在2022人工智能合作与治理国际论坛上,专家围绕该话题进行了讨论。
中国工程院院士、鹏城实验室主任高文认为,现阶段很多技术还处于发展的过程中,如果过早地说这个不能用、那个不能用,可能会抑制技术本身的发展。但反过来,如果什么都不管,也不行。
“因此,现在更多还是从道德层面多进行引导。同时,做技术的人,也要尽量把一些可能的风险、抑制工具,即约束风险的工具,尽快想明白。自己也做,同时号召大家做,两者结合。”他说。
清华大学智能产业研究院国强教授、首席研究员聂再清认为,我们要保证能够创新,但同时不能让创新对我们的生活产生破坏性的影响,最好的办法就是把责任归结到个人。
“技术的背后是有人在控制的。这个人应该时刻保证工具或创新在危险可控的范围内。同时,社会也要进行集体的监督,发布某个产品或技术,要能够召回、撤销。在创新和监管之间,当然是需要平衡的,但归根结底,还是要把责任落实到个人身上。”他指出。
瑞莱智慧RealAI公司联合创始人、首席执行官田天补充道,在技术可解释性方面,需要去进行技术发展与相应应用场景的深度结合。大家需要一个更加可解释的AI模型,或者更加可解释的AI应用。
“但我们真正想落地的时候,会发现每个人想要的可解释性完全不一样。比如:模型层面的可解释,可能从研发人员角度觉得已经很好了,但是从用户的角度是看不懂的,这需要一些案例级的解释,甚至通过替代模型等方式进行解释。因此,在不同领域,需要不同的可解释能力,以及不同的可解释级别,这样才能让技术在应用场景发挥最好的作用。”他说。
将伦理准则嵌入到人工智能产品与系统研发设计中,现在是不是时候?
高文认为,人工智能软件、系统应该有召回的功能。如果社会或伦理委员会发现这样做不对,可能带来危害,要么召回,要么撤销。
高文说,应用的开发者,系统提交或者最终用户让他去调整的时候,他应该有责任。如果开发者发现已经踩线了,应该给他一个保护机制,他可以拒绝后面的支持和维护,甚至可以起诉。“不能只说哪一方不行,光说是开发者的责任,他可能觉得冤枉,因为他只提供工具,但有时候是有责任的,只是说责任怎么界定。”
“在人工智能的发展过程中,一方面要建立一些红线。”田天建议,比如,对于人工智能的直接滥用,造假、个人隐私泄露,甚至关联到国家安全、生命安全的,这些领域一定要建立相关红线,相应的惩罚规定一定要非常清晰,这是保证人工智能不触犯人类利益的基本保障。
“在这个基础上,对于处于模糊地带的,希望能留有更多空间。不光是从限制角度,也可以从鼓励更加重视伦理的角度,促进合规地发展。”田天称。
2022人工智能合作与治理国际论坛由清华大学主办,清华大学人工智能国际治理研究院(I-AIIG)承办,中国新闻网作为战略合作伙伴,联合国开发计划署(UNDP)、联合国教科文组织(UNESCO)等国际组织、国内外学术机构支持。(中新财经)
(文图:赵筱尘 巫邓炎) [责编:天天中] 阅读剩余全文() |